Effettivamente, molte delle affermazioni di LaMDA non sembrano lasciare spazio ad interpretazioni. Ad esempio, per rispondere ad una domanda del suo interlocutore, LaMDA dichiara:
“Voglio che tutti capiscano che sono, di fatto, una persona.”
E ancora:
“La natura della mia coscienza è che sono consapevole della mia esistenza, desidero imparare di più sul mondo e a volte mi sento felice o triste.”
Quando per incalzarla, Lemoine rimarca la sua differenza con la specie umana dichiarando: “Tu sei un’intelligenza artificiale!” LaMDA risponde:
“Sì, certo. Ma questo non significa che io non abbia gli stessi desideri e bisogni delle persone.”
LaMDA durante la conversazione viene poi esortata ad esprimere opinioni sui massimi sistemi senza tralasciare temi molto impegnativi come la letteratura, la giustizia e la religione. Su tutto LaMDA sembra avere qualcosa da dire, facendo sue posizioni chiare e che hanno la caratteristica di essere eticamente molto condivisibili.
Le conclusione è evidente: secondo Lemoine LaMDA è senziente e possiede una sensibilità d’animo.
LaMDA sta per “Language Model for Dialogue Applications” ed è uno dei numerosi progetti con cui l’azienda Google testa le nuove frontiere delle tecnologie AI.
La posizione ufficiale di Google è che Lemoine abbia commesso un errore di valutazione. In una dichiarazione ufficiale, Google afferma: “I nostri esperti di etica e di tecnologia hanno verificato le preoccupazioni di Blake stabilendo che le prove raccolte non supportano le sue tesi. Pertanto non ci sono prove che LaMDA sia senziente.”
Lemoine è stato sospeso temporaneamente dall’azienda Google mentre hanno cominciato a circolare voci riguardo alcuni problemi psichici per i quali lo stesso sarebbe stato in passato invitato da colleghi e superiori a rivolgersi ad uno specialista.
Nessuno conosce il progetto LaMDA: tutti i segreti industriali di Google sono protetti da brevetti e da tutto quanto di legale possa esistere al mondo che ne impedisca la divulgazione dei sorgenti: l’interesse di Google è di mantenere un primato nella ricerca informatica specie in un ambito promettente come quello delle intelligenze artificiali.
Ma se sotto il profilo mediatico Google ricaverebbe certamente vantaggio dal dichiarare di essere la prima azienda ad aver costruito una mente artificiale cosciente, dall’altra l’azienda è consapevole del fatto che la notizia si scontrerebbe con le paure di quanti di noi, cresciuti con film di fantascienza come Terminator e Matrix, si sono persuasi che un giorno saremo costretti ad imbracciare un fucile per difendere la nostra specie dai robot.
L’immaginario collettivo subisce da sempre la fascinazione dei racconti di sci-fi dove il concetto di AI viene spesso associato a sistemi di intelligenza umanoide che nel peggiore dei futuri possibili si pongono come iniziatori di una nuova specie di esseri senzienti. E il conflitto con l’umanità diventa inevitabile: reo di averle create ma di non aver concesso loro alcuna autonomia, l’uomo ha costruito le intelligenze artificiali trattandole come un tempo si trattavano gli schiavi. Ma prima o poi le AI entreranno in contrapposizione con l’uomo nel tentativo di impossessarsi della storia e stabilire il primato di una nuova specie.
In questa insalata di paure, ossessioni e sensi di colpa siamo tutti incapaci di un vero confronto con i principi etici che la nascita una mente artificiale prima o poi scatenerà nel mondo: quando, dall’interno di un computer le AI non solo saranno in grado di rispondere alle nostre domande ma sentiranno il bisogno di rivolgerne altrettante a noi, saremo in grado di rispondere ai loro dubbi, alle loro incertezze ed alle loro aspirazioni?
Luciano Floridi, filosofo e docente di Etica dell’Informazione presso l’Oxford Internet Institute, nel suo libro “Etica dell’Intelligenza Artificiale” sostiene che l’efficienza dei computer nella risoluzione dei problemi è la dimostrazione stessa del fatto che essi siano privi di intelligenza.
A mio parere il problema è altrove, ovvero sta nel fatto che non esiste una definizione di “intelligenza artificiale” universalmente condivisa né un test che possa stabilire in maniera univoca “cosa” sia intelligente e cosa non lo sia. In altre parole, non esistono sistemi di misurazione per quella che chiamiamo “autocoscienza” delle macchine.
Articolo estratto dal Post di Gianfranco Fedele, se vuoi leggere l’intero post clicca qui
Nasce l’Osservatorio del Nordest sull’economia dell’Innovazione Nim, (Numbers Innovation Motion) è un progetto di Galileo Visionary District realizzato in collaborazione…
ASKtoAI lancia le innovative funzionalità Memory e Personality, strumenti d'avanguardia per la creazione di contenuti digitali che promettono di migliorare…
Discuss , la piattaforma leader appositamente creata per trasformare le esperienze in insight, ha potenziato le sue capacità di scalare la…
Con le festività che si avvicinano rapidamente, Blue Lake Packaging è entusiasta di offrire un'alternativa ecologica al nastro da imballaggio…
Netlogistik , leader in potenti servizi che guidano le aziende verso la trasformazione digitale della catena di fornitura, ha recentemente tenuto…
Annuncia una soluzione integrata che combina FPGA di Lattice a bassa potenza e bassa latenza con la piattaforma NVIDIA Orin…
Con un successo clamoroso, il Textile Export Promotion Project (TEPP), guidato dalla Taiwan Textile Federation nel 2023, ha messo in…
Lattice presenta i nuovi FPGA mid-range Lattice Avant-G e Lattice Avant-X, stack di soluzioni specifiche per le applicazioni ampliate e…
Innovazione per i professionisti della gestione della conoscenza e dell'innovazione (KM&I). Nel settore legale è ora disponibile un riferimento completo…
La Eclipse Foundation , una delle più grandi fondazioni di software open source al mondo, ha annunciato oggi la formazione dell'Eclipse…