Da qualche settimana si parla di ChatGpt, il nuovo software di intelligenza artificiale di OpenAi, una società di San Francisco finanziata da Elon Musk e Peter Thiel.
Lanciato il 30 novembre, scaricabile gratuitamente e usato già da milioni di persone nel mondo, è il primo bot di massa dell’AI. Gli utilizzi sono infiniti: può fare diagnosi, rispondere ai grandi quesiti geopolitici, scrivere lettere, poesie, saggi, codici informativi. E se per caso ve lo state chiedendo, anche articoli di giornale (no, non questo).

Il tema dell’intelligenza artificiale, dopo l’implosione momentanea della bolla del metaverso, sembra aver riportato il futuro e la tecnologia nell’alveo della discussione pubblica. Facendo breccia persino nel più autoreferenziale dei mondi, quello dell’arte. A fine agosto aveva suscitato scalpore la notizia che un’opera generata interamente da un programma - Theatre d’Opera Spatial dell’artista Jason Allen - aveva vinto un concorso americano di fotografia. Insieme alla prevedibile alzata di scudi dei concorrenti in carne ed ossa si era registrato il biasimo a mezzo social dei “dove andremo a finire, signora mia” da tastiera. Si era trattato, va detto, di un comune riflesso pavloviano. Nulla, comunque, di paragonabile allo shock del 1996, quando Deep Blue aveva battuto Garry Kasparov in una partita a scacchi. Da allora gli scacchisti si sono evoluti diventando quasi imbattibili ma i computer lo hanno fatto tre volte di più. Il cammino evolutivo delle macchine è nel mentre passato in sordina, accettato come ineluttabile, sopraffatto da emergenze varie ed eventuali e sbornie tecno-mediatiche di più immediato e volatile clamore. Fino a ChatGpt. Eppure, le sue applicazioni continuano a rivoluzionare molteplici campi delle attività umane, dall’agricoltura alla medicina, sollevando tra gli esperti sorde ondate di entusiasmo e di allarmismo antropo-sociale.

Il cinema stesso sembrava aver derubricato la questione a livello di immaginario (Crimes of the future di Cronenberg, ultimo in ordine di tempo, è più un lavoro di nicchia, una dissertazione d’autore). Quel che esce dalla porta dello storytelling può sempre rientrare però dalla finestra della produzione. A fine ottobre, anche questo passato in sordina, era uscito nei nostri cinema un action-movie senza infamia e senza lode: Fall di Scott Mann. Girava intorno alle disavventure di due giovani donne, intrappolate a duemila piedi di altezza sopra una torre radio abbandonata nel deserto. Presentato al pubblico come “un’esperienza adrenalinica da vivere solo al cinema“, il film avrebbe potuto vantare in realtà un requisito ben più esclusivo: è stato il primo lavoro cinematografico pesantemente rimaneggiato da Flawless, una startup di intelligenza artificiale capace di aggiornare i visemi sullo schermo (le espressioni facciali degli attori) in base ai fonemi (i suoni che gli attori producono). Una vera e propria correzione del doppiaggio cinematografico definita lo scorso anno dal Time una delle migliori invenzioni del 2021.

Fall (2022) - Credits Webphoto
Fall (2022) - Credits Webphoto

Fall (2022) - Credits Webphoto

Qui occorre fare un passo indietro. Durante le riprese di Fall, alle due attrici protagoniste, Virginia Gardner e Grace Fulton, era stato chiesto di improvvisare i dialoghi mentre se ne stavano sospese nel vuoto. Il risultato era stato talmente autentico che alla fine si potevano contare oltre 35 “f**k” pronunciati dalle giovani interpreti. Troppi, per non incorrere nel divieto massimo previsto dall’inflessibile MPAA, l’autorità cinematografica americana paragonabile alla nostra vecchia commissione censura. La produzione, Lionsgate, temendo di vedere erosi i propri guadagni aveva chiesto al regista di tagliare la quasi totalità delle parolacce in modo da ottenere un ben più blando PG-13. C’era solo un problema: rifare quelle scene, in quelle condizioni, a lavorazione conclusa, avrebbe avuto dei costi non indifferenti. Bisognava richiamare le attrici, riportarle sulla torre, riorganizzare il set, convocare la troupe. Un bell’impiccio. È allora che interviene l’AI di Flawless: il software acquisisce le nuove battute pronunciate in sala di registrazione dalle attrici e modifica la loro fisionomia adattando i movimenti della bocca alla fonetica dei nuovi dialoghi. Il risultato è stato sorprendente.

Una tecnologia che, se applicata su larga scala, potrebbe davvero ovviare a gran parte dei problemi di traduzione e doppiaggio. Pensate alla fatica di riscrivere i dialoghi in un’altra lingua mantenendone il senso e in sincrono rispetto alle espressioni facciali degli attori. Flawless toglie ogni imbarazzo, adattando non i dialoghi ma i movimenti della bocca e persino l’espressione alla traduzione più fedele. Gli americani lo chiamano “vubbing”, ovvero doppiaggio visivo.

Non è l’unico esempio di applicazione dell’intelligenza artificiale nel mondo del cinema. Sempre in tema di manipolazione vocale-facciale, Papercup è una società capace di generare voci umane sintetiche da utilizzare in doppiaggio e voice-over. Qui l’applicazione è ancora più estrema: in teoria si potrebbe fare a meno del sottotitolo e del doppiatore perché il software mira a rendere uno stesso video disponibile in qualsiasi lingua. E che dire di Digital Domain, colosso degli effetti visivi, che da tempo si sta specializzando nell’apprendimento automatico delle immagini degli attori quando devono svolgere compiti che di norma richiederebbero una controfigura? Fino ai casi limite di attori già defunti “risuscitati” dall’AI applicata all’ingegneria del cinema (pensiamo ai casi di Peter Cushing e Carrie Fisher nei recenti sequel di Star Wars).

Star Wars: L'ascesa di Skywalker (2019) - Credits Webphoto
Star Wars: L'ascesa di Skywalker (2019) - Credits Webphoto

Star Wars: L'ascesa di Skywalker (2019) - Credits Webphoto

Secondo l’esperto di etica informatica Robert Wahl, l'intelligenza artificiale farà al cinema quello che Photoshop ha fatto alla fotografia. Ricadute ontologiche comprese: possiamo realmente credere a ciò che vediamo? Se il quesito filosofico s’innesta su quello più generale riguardante il cinema digitale e la perdita di distinzione tra l’apparente e il referente (pensiamo alla Pandora di Avatar, che esiste solo ed esclusivamente nell’universo del film), il dilemma morale è più specifico e insieme pervasivo. La possibilità, ad esempio, di manipolare ex post i dialoghi, attribuendo ad attori battute per le quali non erano stati messi sotto contratto, può diventare un vero e proprio rebus insolubile nel caso in cui gli stessi attori non siano più nella possibilità di accettare o rifiutare questa alterazione (magari perché semplicemente scomparsi). Senza considerare i pericoli, già evidenziati con i deep-fake, di affermazioni false in bocca a potenti veri (o, di contro, di smentite non meno fasulle).

La protrusione del falso o, se preferite, la preclusione del vero, sono il vaso di Pandora (non quella di Avatar stavolta) dell’Ai applicata al visivo. E per quanto si ribadisca giustamente che la tecnologia è neutrale, benefica o malefica in base all’uso che se ne fa, è chiaro che la possibilità pone di per sé un problema. Molto più prosaicamente l’industry cinematografico americano è già al lavoro con i vari sindacati di categoria per trovare un accordo sulle condizioni di utilizzo delle nuove tecnologie informatiche: si va dalla policy del consenso (si usano solo se tutte le controparti sono d’accordo: pacta sunt servanda) agli indennizzi economici per le categorie professionali che fossero eventualmente danneggiate dall’implementazione dell’AI.

Insomma, l’approccio americano è improntato al solito pragmatismo. Business is business. Nessun freno regolamentare: il treno, del resto, ha già lasciato la stazione. Chissà se, come quello dei Lumiere, sarà solo un effetto ottico.