Nel lontano 31 gennaio del 2022 pubblicavamo sul blog di Laila il primo articolo composto da un algoritmo generativo, per intenderci un algoritmo che ricalca la stessa architettura tecnologica di ChatGPT sviluppato da OpenAI.

Non era il primo e non sarebbe stato l’ultimo, in definitiva ne abbiamo pubblicati 4 indicando sempre esplicitamente da chi fossero stati scritti.

Ma gli esperimenti andarono oltre, generammo decine di contenuti finché l’algoritmo, all’interno di un focus sulle prospettive del marketing immobiliare nel 2023, non riportò la seguente citazione:

«Il presidente dell’Associazione degli acquirenti di case di Hong Kong, Mark Chien-hang, ha dichiarato al South China Morning Post che, sebbene il valore delle case appena completate nel territorio sia in calo, il volume delle vendite è ancora elevato. “Questo perché dall’estero, persone con solidi piani di investimento hanno già fatto il loro ingresso nel mercato”, ha dichiarato Chien-hang.»

Elemento di rassicurazione

Questa citazione appariva come un elemento di rassicurazione perfettamente calato nel contesto dell’articolo. Ma prima di mandarlo online decidemmo per completezza di verificare la fonte con l’obiettivo di citarla opportunamente. Ebbene, quello che scoprimmo è che Mark Chien-hang non esiste, così come non esiste un’Associazione degli acquirenti di case di Hong Kong. Il testo citato non compare sul web e se a qualcuno venisse in mente che possano esserci archivi di informazioni che alimentano queste AI non direttamente accessibili online, ebbene non è così: la citazione è completamente inventata!

Le IA generative hanno la capacità di “generare” contenuti nello stile e nella forma dei contenuti su cui sono addestrate, ma non “memorizzano” i dati e non sono in grado di riportarli nella loro forma originale. Le IA generative funzionano come scatole nere, costituite da reti neurali artificiali alle quali non può essere applicata alcuna forma di reverse engineering. In altre parole, i dati di training diventano numeri e non esiste alcuna relazione diretta tra questi numeri e i dati che li hanno ingenerati.

Ad oggi esse non trovano ancora alcuna applicazione commerciale per il rischio che possano fornire informazioni completamente errate in contesti sensibili.

Articoli correlati

I Termini di Utilizzo di OpenAI per ChatGPT recitano: 

Newsletter sull’Innovazione
Non perderti le notizie più importanti sull'Innovazione. Iscriviti per riceverle via e-mail.

«Input e Output sono da considerarsi collettivamente “Contenuti”. […] L’utente è responsabile dei Contenuti per quanto riguarda la garanzia che non violino alcuna articolo di Legge […]»

Se le informazioni generate da ChatGPT espongono chi le utilizza al rischio di pubblicare falsi, diffamazioni o altre violazioni della Legge, proprio per questo motivo OpenAI si tutela declinando ogni responsabilità sulla divulgazione dei contenuti generati dalla sua stessa intelligenza artificiale.

Al momento le grandi menti del machine learning non sono state ancora in grado di produrre qualcosa di meglio di sistemi che rispondono a qualsiasi domanda solo mentendo spudoratamente. E se talora queste IA rispondono correttamente, si tratta di una mera coincidenza e null’altro.

Articolo di Gianfranco Fedele

Newsletter sull’Innovazione
Non perderti le notizie più importanti sull'Innovazione. Iscriviti per riceverle via e-mail.