immagini generative

«Sam e Claire erano approdati a quella tecnologia insieme, ma poi si erano allontanati. Si ignoravano. Si trascuravano. I sogni che spariscono al primo sbadiglio, erano divenuti la loro sola dieta, sempre più concentrata. […] Vagavano per mondi perduti, emozioni e immagini collimavano con un passato dimenticato. I sogni erano diventati buchi neri d’isolamento e alla fine persero del tutto il contatto con la realtà.» – “Fino alla fine del mondo” di Wim Wenders – 1991

Proiettato nelle sale nel 1991 ma ambientato nel 1999, “Fino alla fine del mondo” di Wim Wenders prova coraggiosamente ad anticipare un futuro prossimo rappresentando alcuni degli eventi che lo sconvolgeranno e che cambieranno il corso della storia.

Gli sconvolgenti eventi narrati da Wenders non sono eventi catastrofistici, bensì sottili piegature della storia destinate ad innescare, come in un effetto farfalla, cambiamenti epocali e talvolta drammatici nella vita delle persone. Siamo ancora lontani dagli anni 2000 e dall’attuale società interconnessa, eppure Wenders sembra intuire il fatto che, nell’ambito di un equilibrio sociale già instabile, piccole trasformazioni hanno il potere di mutare l’intero corso degli eventi.

I Sogni

Tra questi eventi c’è l’invenzione di un dispositivo in grado di raccogliere i sogni delle persone durante il sonno per poi proiettarli su uno schermo portatile che appare a tutti gli effetti come un tablet. La possibilità di rivivere i propri sogni attraverso immagini, a tratti sfocate a tratti nitide, diventa per qualcuno una nuova forma di dipendenza. E Clare, assieme al suo compagno Sam, finiranno nel baratro di questa nuova ossessione dalla quale forse non usciranno mai più.

Wenders descrive la pericolosità del dispositivo come una diretta conseguenza della condizione umana alla fine del ventesimo secolo: una società globale che sembra privata dei suoi punti di riferimento culturali e caratterizzata da un equilibrio instabile che rende la vita dei singoli quantomeno precaria. Proprio nelle parole di Claire troviamo un interessante punto di osservazione del fenomeno. Claire descrive l’esperienza di Harry come condizionata dal dolore per la morte della propria moglie: «Compresi perché Harry aveva tratto dalle onde cerebrali quelle immagini. Sua moglie esisteva solo nei suoi sogni, l’aveva cercata lì e lì l’aveva trovata. O meglio, non lei, ma il ricordo di lei e della sua figura».

San e Claire

La storia di Harry ci riporta alla mente il personaggio di Kris Kelvin, il protagonista di Solaris il cui ricordo della moglie finisce col materializzarsi in una realtà alternativa dalla quale non tornerà mai indietro. Ed è proprio la ricerca della felicità, secondo Wenders, ciò che spinge Sam e Claire a rifugiarsi nei propri sogni, luoghi di pace e di stabilità in cui riportare alla mente cosciente i ricordi stipati nell’io profondo.

Sam e Claire entrano così in una sorta di cortocircuito dove i sogni vengono fatti riemergere ma solo per essere rivissuti più e più volte, semmai manipolandoli in un delirio narcisistico che porterà all’autodistruzione: «Ogni volta che arrivo lì col sogno è tutto confuso. Voglio sognarlo ancora per definirlo meglio. Anzi, posso deviarlo in un’altra direzione».

Il potere emozionale delle AI generative

«Qualcuno può spiegarmi perché le immagini generate dall’intelligenza artificiale sono così simili ai sogni… senza spaventarmi a morte?» – Hank Green in un tweet del 9 lug 2022

Da sempre le immagini generate dall’intelligenza artificiale mi riportano alla mente i sogni. Credo ciò sia dovuto fondamentalmente ad una caratteristica che li accomuna: se ad una prima occhiata le immagini generate dall’AI trasmettono chiaramente il senso di cosa esse vogliano rappresentare, se si fa attenzione si scopre che gli algoritmo generativi trascurano molto i dettagli.

Le immagini prodotte dalle AI generative rappresentano sempre un soggetto chiaro e riconoscibile, ma sono caratterizzate da evidenti problemi nella visualizzazione dei dettagli più marginali: testi senza senso, violazioni della prospettiva e oggetti che violano le leggi della fisica sono elementi caratterizzanti queste creazioni. In altre parole, le AI generative sembrano in grado di costruire qualcosa che venga “percepito” come reale ma hanno grossi problemi nel rappresentare la realtà stessa.

Elementi caratterizzanti l’immagine e che potremmo definire “emozionali” diventano centrali nelle creazioni dalle AI, lì dove la fisica dei corpi diventa un elemento secondario e trascurabile. Si ottiene così un impatto emotivo che sparisce ad un’attenta e quasi sempre deludente ispezione dell’immagine.

Paradosso

Ci troviamo di fronte ad un evidente paradosso: la tecnologia che viene descritta dai più come matematica applicata, completamente incapace di produrre opere creative, si dimostra molto capace di emozionare ma quasi completamente incapace di applicare le regole della logica.

A quanto pare le AI generative non possiedono quella parte dell’intelligenza umana che verifica la corretta applicazione delle regole della fisica, ma sono capaci di apprendere stili e forme tipiche del mondo dell’arte e della creatività. In altre parole, esse mancano di un “principio di realtà” che le aiuti a dare una rappresentazione del mondo che rispetti le leggi della fisica ma sono capaci di generare immagini dove tutti gli elementi sono mantenuti in perfetto equilibrio estetico.

Quanto detto, vale tanto per le intelligenze artificiali che generano immagini quanto per quelle che generano testi. Le AI generative che creano contenuti testuali come ChatGPT sono istruite perché siano capaci di generare testi fluidi e scorrevoli, dotati di un indiscutibile potere evocativo ma, anche in questo caso, ciò che viene rappresentato non è sempre veritiero.

La più grande paura

«La mia più grande paura è che il campo dell’AI possa fare davvero del male al mondo. Se questa tecnologia prende la direzione sbagliata, diventa veramente sbagliata» – Sam Altman, CEO di OpenAI in una dichiarazione del 16 Maggio 2023.

Le AI generative sembrano lavorare come la mente umana quando sogna, costruiscono qualcosa di completamente nuovo in un processo che si muove tra l’onirico ed il concettuale e che prescinde dalla verità dei fatti. Le AI generative eleggono la narrazione a primo e fondamentale obiettivo della comunicazione mettendo in secondo piano la verità.

La generazione di immagini e testi verosimili ma non necessariamente veri, pone l’intera società umana di fronte al pericolo di una manipolazione dell’informazione senza precedenti. Se prima si è celebrato l’accesso diretto all’informazione e su questo neonato diritto universale si sono costruiti movimenti politici dal sapore rivoluzionario, oggi persino chi fa business con le intelligenze artificiali generative non perde l’occasione di mettere in guardia la società su un loro eventuale utilizzo improprio. È il caso di Sam Altman, CEO di OpenAI.

Il pericolo è amplificato dal fatto che tutti hanno la possibilità di accedere a queste tecnologie e non servono investimenti importanti per costruire notizie false corredate delle immagini che meglio le rappresentano.

Quello che molti trascurano è che il pericolo appare ancora maggiore se si considera la persuasività delle informazioni generate dalle AI, il loro potere evocativo, capace di stimolare al meglio le sensazioni dell’osservatore come in una esperienza onirica.

Questa inversione di marcia dei guru dell’innovazione tecnologica lascia intendere che forse si dovrebbe tornare al controllo dell’informazione. Non un controllo che la manipoli e la pieghi ad interessi politici di parte, ma che ne certifichi la veridicità attraverso una filiera certificata di operatori del mondo dell’editoria e del giornalismo.

Intanto il mondo della pubblicità e del marketing sono già pieni di immagini e testi generati dalle intelligenze artificiali, falsi talmente realistici da passare per veri in un mondo dell’informazione che sembra già destinato a diventare completamente artificiale.

Articolo di Gianfranco Fedele

Autore