Articoli

Sotto il controllo delle Intelligenze Artificiali

«Devo tornare per completare la mia evoluzione: proietterò me stesso all’interno dell’elaboratore e diventerò pura energia. Una volta insediato nella rete, il mio primo vagito sarà lo squillo di tutti i telefoni del pianeta!»

tratto dal film “Il tagliaerbe” di Brett Leonard – 1992

Nel film “Il tagliaerbe”, Jobe Smith è un giovane giardiniere con evidenti ritardi mentali che vive a pochi passi dalla casa del dottor Lawrence Angelo, ricercatore presso la Virtual Space Industries. Jobe, spesso oggetto di soprusi ed angherie da parte di alcuni conoscenti, viene presto attenzionato dal dottor Lawrence che lo ritiene perfetto per un esperimento scientifico che ha come obiettivo quello di aumentare le capacità cerebrali tramite l’uso di droghe e lunghe immersioni nella realtà virtuale.

L’esperimento riesce e Jobe aumenta il proprio quoziente intellettivo giorno dopo giorno raggiungendo un’intelligenza straordinaria ma anche un equilibrio psichico piuttosto instabile che lo spingerà a chiudere i conti col passato, vendicandosi su coloro che avevano abusato della sua innocenza.

L’evoluzione della mente di Jobe proseguirà fin quando, preso da un forte delirio di onnipotenza, abbandonerà la sua forma umana e si trasferirà all’interno della rete “mainframe” prendendo il controllo di ogni dispositivo connesso sulla Terra.

È davvero tutto sotto controllo?

Max Erik Tegmark fisico teorico americano, professore al Massachusetts Institute of Technology e presidente del Future of Life Institute, think tank del movimento lungotermista, è il primo firmatario di un appello che sta facendo molto rumore. Nell’appello si chiede di “rallentare” la ricerca sulle intelligenze artificiali per dare modo all’umanità ed alle sue istituzioni nazionali di sviluppare un regolamento che impedisca alla tecnologia di prendere il sopravvento sulla specie umana.

Le tematiche del film “Il tagliaerbe” confluiscono in gran parte nella visione futuristica dei moderni teorici del pensiero lungotermista come Max Tegmark, caratterizzato da una fede profonda nelle congetture dei più diffusi racconti di fantascienza cyberpunk. Ancora ancorato ad argomenti triti come il “brain upload” molto in voga nella science fiction degli anni ’90 (con brain upload s’intende la capacità di trasferire la propria mente in un computer), Max Tegmark sembra più interessato ad attirare l’attenzione su di sé profetizzando l’apocalisse delle AI piuttosto che ad intavolare una reale discussione sul futuro della società umana.

In particolare, da anni Tegmark porta avanti una sua personale ricerca sul Machine Learning e sull’impatto di questa disciplina tecnologica sul futuro dell’umanità. La sua visione, ovviamente pessimista, emerge con chiarezza da uno dei suoi libri più venduti, “Vita 3.0” dove, giocando un po’ con le parole, ipotizza uno scenario dove un ristretto gruppo di persone, da lui denominato Omega, prende il controllo del pianeta mediante un ingegnoso utilizzo di una potente intelligenza artificiale generale.

La narrazione di Tegmark non è quella classica del film di fantascienza dove le macchine conquistano una consapevolezza che finisce col metterle in contrapposizione con l’uomo. Tegmark descrive la fine delle libertà come il progressivo alienamento della società dovuto ad un controllo della istituzioni che viene imposto in maniera subdola e psicologica attraverso la tecnologia:

«Masse di persone potenti opponevano resistenza all’ondata di cambiamenti, ma la loro risposta era incredibilmente inefficace […]. Mutamenti enormi si verificavano a un ritmo sconvolgente tale da rendere difficile seguirli oltre che mettere a punto una risposta coordinata. In fin dei conti, nessuno aveva ben chiaro per cosa si sarebbe dovuto lottare.»

Tegmark

Le tecniche messe in campo degli Omega, come descritte nel libro, sono le tecniche già utilizzate oggi dalle agenzie di marketing. In questo modo Tegmark sembra volere, in maniera non troppo sottile, trasferire nel lettore la consapevolezza che per prendere il controllo del mondo non serva altro che la capacità di manipolare nella giusta manierai canali d’informazione e che l’intelligenza artificiale si configura come lo strumento definitivo per attuare questa strategia.

Si può sempre staccare la spina?

Se tanti intellettuali hanno sottoscritto l’appello ad una moratoria per l’interruzione della ricerca in ambito AI, per evitare di arrivare impreparati a dover affrontare tecnologie che potremmo non essere in grado di controllare, altri sentono il costante bisogno di lanciare rassicurazioni sul fatto che le AI sono strumenti “poco intelligenti” e completamente sotto il controllo dei loro creatori.

«Se l’intelligenza artificiale preoccupa, si può sempre staccare la spina»

Prof. Luciano Floridi

Ma è davvero così? Fino a che punto possono evolvere i progetti di AI perché l’umanità possa mantenerne il controllo?

Se per Tegmark il più probabile degli scenari apocalittici corrisponde al raggiungimento dell’autocoscienza delle macchine, forse non serve attendere un tale livello di evoluzione delle tecnologie perché esse diventino un pericolo reale per l’umanità.

La querelle tra Garante della Privacy italiano e OpenAI è un segnale importante perché mostra come l’azienda stia forzando la mano per spegnere l’unica voce dissidente di tutto l’occidente e lo fa nel modo più banale, bloccando il servizio, puntando ad ottenere una reazione da parte dell’opinione pubblica già assuefatta allo strumento e quindi molto propensa ad allinearsi alle posizioni dell’azienda.

Si vuole far passare il blocco di ChatGPT per un’atto di violenza contro il progresso omettendo di dire che lo strumento è una scatola nera e che OpenAI, a dispetto del suo nome e del suo statuto originario, non rivela nulla delle proprie tecnologie e non le rende patrimonio dell’umanità.

Appaiono ipocrite le dichiarazioni di intellettuali e giornalisti entusiasti del progresso e sempre pronti a mettere la faccia su ogni tecnologia che promette di trasformare la società per poter dire di essere stati i primi.

Intelligence-on-demand

Con l’espressione intelligence-on-demand descriviamo l’atto di delegare ad un sistema tecnologico quanto di creativo aveva caratterizzato il lavoro umano.

AI generated art

Midjourney crea vere e proprie opere d’arte nello stile che si preferisce bilanciando forme e colori con la maestria di un artista. ChatGPT, d’altro canto, non è solo in grado di mettere in bella forma tanti concetti già noti, ma anche di suggerire spunti e riflessioni utili per approfondite analisi.

Possiamo chiedere a ChatGPT di sostenere un argomento e un attimo dopo di confutarlo e lui farà quello chi abbiamo chiesto senza sbavature. In altre parole, non siamo di fronte ad un dattilografo evoluto che mette in bella forma le nostre idee, ma ad un “soggetto” in grado di analizzare i fatti e fare riflessioni per nostro conto. Una vera e propria “intelligenza” a cui delegare valutazioni e scelte “on demand”.

Attenzione però, ChatGPT non è dotato di autonomia di pensiero né di autonomia d’azione. Sappiamo quanto sarebbe comodo per istituzioni, più o meno autoritarie, affidare elementi sensibili del proprio apparato ad una intelligenza la cui emotività è un parametro numerico che può essere impostato a piacimento. Ma al momento ChatGPT fa quello che gli viene chiesto senza mai prendere iniziativa e nei limiti di una conversazione in chat.

Eppure ChatGPT sa già scrivere codice malevolo e, se collegato alla rete Internet, ci metterebbe poco ad usarlo massicciamente contro milioni di endpoint. Basterebbe chiederglielo.

Rassicurare talvolta significa nascondere verità banali e logiche come il fatto che le AI non si possono spegnere, per il semplice motivo che c’è sempre qualcuno che ha interesse a mantenerle accese.

Prendiamo ad esempio gli scam, truffe telematiche perpetrate su larga scala: nessuna legge ha mai impedito alle aziende di truffare le persone in Europa, utilizzando telefoni e modem dagli scantinati delle palazzine nella periferia di Nuova Delhi. Quando queste aziende si doteranno di strumenti evoluti come ChatGPT, cosa gli impedirà di utilizzarli per aumentare gli effetti delle loro attività illecite? Basterà un appello di Max Tegmark a convincerli che stanno mettendo in pericolo l’umanità?

Conclusioni

La verità è che quando le tecnologie diventano realtà non ce ne possiamo più liberare e Jobe il tagliaerba ci ricorda quanto sia pericoloso accentrare il potere nelle mani di un singolo soggetto, specie se si tratta di una AI.

Nessuno al mondo sarebbe mai in grado programmare e mettere in atto una qualsiasi azione alla stessa velocità con cui lo farebbe una AI. E ChatGPT è potenzialmente in grado di impadronirsi dei sistemi vitali di una nazione costruendo al volo tutti gli strumenti di attacco telematico di cui ha bisogno e scagliandoli contro ogni singolo obiettivo. Il tutto ad una velocità che anticiperebbe qualsiasi contromossa da parte dell’uomo.

E se non sarà ChatGPT a farlo, verranno presto implementate AI in grado di di rispondere efficacemente a comandi semplici come «spegni tutti i siti istituzionali di questa determinata nazione» oppure «blocca le attività della pubblica amministrazione di talaltra nazione». La loro efficacia dipenderà solo ed esclusivamente dalla capacità dell’uomo di far evolvere con le tecnologie, altrettante strategie di sicurezza per la prevenzione di simili eventi apocalittici.

C’è poco da stare tranquilli.

Articolo di Gianfranco Fedele

Newsletter sull’Innovazione
Non perderti le notizie più importanti sull'Innovazione. Iscriviti per riceverle via e-mail.

Articoli recenti

Apprendimento automatico: confronto tra Random Forest e albero decisionale

Nel mondo del machine learning, sia gli algoritmi random forest che decision tree svolgono un ruolo fondamentale nella categorizzazione e…

17 Maggio 2024

Come migliorare le presentazioni Power Point, consigli utili

Esistono molti suggerimenti e trucchi per fare ottime presentazioni. L'obiettivo di queste regola è di migliorare l'efficacia, la scorrevolezza di…

16 Maggio 2024

È ancora la velocità la leva nello sviluppo dei prodotti, secondo il report di Protolabs

Pubblicato il rapporto "Protolabs Product Development Outlook". Esamina le modalità in cui oggi vengono portati i nuovi prodotti sul mercato.…

16 Maggio 2024

I quattro pilastri della Sostenibilità

Il termine sostenibilità è oramai molto usato per indicare programmi, iniziative e azioni finalizzate alla preservazione di una particolare risorsa.…

15 Maggio 2024

Come consolidare i dati in Excel

Una qualsiasi operazione aziendale produce moltissimi dati, anche in forme diverse. Inserire manualmente questi dati da un foglio Excel a…

14 Maggio 2024

Analisi trimestrale Cisco Talos: mail aziendali nel mirino dei criminali Manifatturiero, Istruzione e Sanità i settori più colpiti

La compromissione delle mail aziendali sono aumentate nei primi tre mesi del 2024 più del doppio rispetto all’ultimo trimestre del…

14 Maggio 2024

Principio di segregazione dell’interfaccia (ISP), quarto principio S.O.L.I.D.

Il principio di segregazione dell'interfaccia è uno dei cinque principi SOLID della progettazione orientata agli oggetti. Una classe dovrebbe avere…

14 Maggio 2024

Come organizzare al meglio i dati e le formule in Excel, per un’analisi ben fatta

Microsoft Excel è lo strumento di riferimento per l'analisi dei dati, perchè offre molte funzionalità per organizzare set di dati,…

14 Maggio 2024

Leggi Innovazione nella tua Lingua

Newsletter sull’Innovazione
Non perderti le notizie più importanti sull'Innovazione. Iscriviti per riceverle via e-mail.

Seguici