Questo testo è un estratto da un articolo che uscirà prossimamente sulla rivista della scuola di cinema Sentieri Selvaggi.
È ormai da alcuni anni che l’Intelligenza Artificiale (IA) viene utilizzata nel mondo del cinema e dell’audiovisivo dalle majors, dalle piattaforme di streaming e in generale dalle grandi aziende dell’audiovisivo.
Perché solo adesso l’IA, in particolare quella generativa, è diventata un argomento centrale tra autori, sceneggiatori, attrici/attori, tecnici? Perché la curiosità per questa ennesima rivoluzione nel settore cine-audiovisivo si ammanta di paura e ostilità?
Una ragione potrebbe essere che le nuove arrivate IA sembrano scardinare un dogma, quello che vede la creatività come caratteristica essenziale della natura umana, non replicabile dalle macchine.
Eppure per molti aspetti – spesso sconosciuti – questa tecnologia potrebbe democratizzare la filiera produttiva, distributiva e promozionale: fino a ora riservate alle grandi case di produzione e distribuzione a causa degli alti costi e delle competenze necessarie per utilizzarle, quelle risorse citate in precedenza (insieme a nuove possibilità) sono ora disponibili per filmmaker e realtà medio piccole del settore.
A cosa è dovuto il salto di qualità delle Intelligenze Artificiali degli ultimissimi anni, considerando che il campo di ricerca è nato circa 70 anni fa? Gli LLM (“Large Language Model”) sono una delle ragioni di questo salto qualitativo. Questi modelli – insieme ai modelli “a diffusione” – sono alla base delle IA generative, in grado cioè di produrre nuovi contenuti (testo, immagini, video, suoni) a partire da descrizioni o richieste testuali. Come ci riescono? Individuando schemi e ricorrenze tra i miliardi di dati (per esempio testi e parole) che costituiscono la sua conoscenza acquisita durante l’addestramento.
Data una parola, inferiscono (in maniera probabilistica) quale debba essere la prossima. Il processo può apparire “meccanico” (e in effetti lo è) e per nulla intelligente ma può produrre risultati interessanti. Questa “intelligenza” non interagisce direttamente con la realtà fisica (per ora…) ma si basa sulla conoscenza umana, sviluppando una prospettiva indiretta (del “second’ordine”, come l’ho definita) e alternativa. Non è qualcosa di totalmente alieno né qualcosa di completamente familiare. È “altro”.
Questo senso di estraneità, questa difficoltà a inquadrare le Intelligenze Artificiali in categorie esistenti ci possono rendere sospettosi nei loro confronti. Anche ostili. Considerarli solo strumenti digitali avanzati non aiuta: non si percepisce la loro utilità nell’accelerare il flusso di lavoro, facendo risparmiare tempo e soldi, offrendo nuove possibilità tecniche e creative come ormai quarant’anni fa hanno fatto i personal computer. Quel che autori, sceneggiatori, tecnici degli effetti speciali temono è di venire sostituiti dalle macchine mentre attrici e attori, comparse, doppiatori e finanche stuntmen hanno paura di essere clonati da vivi e da morti in controparti digitali servizievoli, economiche ed eterne.
L’IA generativa può però essere molto utile: è in grado di creare contenuti a partire da una richiesta (“prompt”) testuale; questo la rende un ottimo strumento per aiutare a elaborare soggetti e sceneggiature, per raffinare quelle esistenti, per suggerire idee e modifiche. La capacità di trasformare il testo in immagini può aiutare filmmaker, autori, scenografi, direttori della fotografia a visualizzare facilmente le scene; entro breve tempo sarà possibile generare storyboard modificabili, per esempio per scegliere la giusta angolatura di ripresa. Anche suoni e brevissimi video possono essere generati facilmente, permettendo di avere bozze avanzate a disposizione di altri addetti ai lavori, come fonici, compositori, costumisti.
Oltre che generare effetti speciali, gli algoritmi basati sull’intelligenza artificiale possono analizzare e modificare filmati, applicare effetti visivi e assistere nella gradazione del colore, nella progettazione del suono e nell’editing video. Sebbene, come detto, alcune di queste funzionalità siano già disponibili in software complessi e costosi in uso alle grandi società di produzione e post-produzione, la novità è che i servizi AI-based consentiranno una notevole riduzione di costi nonché una semplificazione e velocizzazione dei processi. Paradossalmente, anche film con budget non certo risicati utilizzano queste funzioni all’occorrenza: nel film pluripremiato all’Oscar “Everything, Everywhere, All At Once” è stata usata una popolare suite di “strumenti magici” della startup Runway per creare un video che sarebbe stato troppo costoso e dispendioso in termini di tempo da produrre su un set cinematografico o come effetto CGI.
Algoritmi basati sull’intelligenza artificiale generativa possono redigere piani di produzione direttamente dalle sceneggiature, aiutare a prevedere le prestazioni al botteghino e nel TV-VOD di contenuti analoghi, anticipare il parere dei critici e il coinvolgimento del pubblico per fornire approfondimenti e raccomandazioni per strategie di scrittura, produzione e distribuzione e proiezioni dei ricavi. Con specifici tool si può effettuare la selezione del casting e delle comparse anche in questo caso direttamente dall’analisi della sceneggiatura o ricercare locations tenendo conto di vincoli precisi (come la necessità di girare in una certa zona o di ricreare ambientazioni particolari). Si possono ottimizzare i tempi di produzione (pensiamo ai complessi cicli di realizzazione nel settore dell’animazione) o programmare quasi automaticamente e in real-time la logistica durante le riprese.
Tutto questo attraverso l’analisi di dati assai meno numerosi di quelli finora necessari: il “fine tuning”, la sintonizzazione fine, permette di far focalizzare su insieme di dati più circoscritti le IA addestrate su enormi dataset, mantenendo la loro conoscenza ad ampio spettro ma rendendole più precise ed efficienti nel contesto di riferimento.
E la creazione di contenuti, ovvero di soggetti e sceneggiature? Si può utilizzare l’IA come fonte di ispirazione, come assistente allo storytelling, interagendo continuamente con essa, rifinendo qualche scena, qualche dialogo, qualche ambientazione. Si può creare uno storyboard estraendolo dalla sceneggiatura o far comporre una bozza di colonna sonora da far sviluppare ai musicisti. Molte sono le potenzialità, alcune già concrete, altre che arriveranno con l’evoluzione dei modelli e dei software che verranno su di essi implementati.
Rimangono i quesiti legati all’addestramento dei modelli LLM, in particolare sul copyright dei contenuti usati e creati, sui pregiudizi che le IA ereditano dai contenuti usati per l’addestramento, sulle nuove forme contrattualistiche che dovranno andare a definirsi per autori, sceneggiatori e tutti coloro che lavorano nel settore audiovisivo.
Secondo un sondaggio di Variety il 30% degli addetti ai lavori e delle aziende del settore americane sta già usando l’IA generativa o prevede di utilizzarla; il 51% non prevede di utilizzarla a breve. Più o meno in Europa la situazione è la stessa. Andando però a parlare “a microfono spento” con responsabili di case di produzione o filmmaker si scopre che le dichiarazioni risentono del clima ostile e che, sottotraccia, l’industria cinematografica e audiovisiva sta studiando e sperimentando strumenti, tecniche, processi basati sull’IA.
A mio parere, entro cinque anni saranno parte integrante del flusso di lavoro nell’intera filiera produttiva e distributiva.
L’immagine introduttiva è stata generata tramite DALL-E 3 ed è ispirata alle prime “vedute animate” dei fratelli Lumière.