La ricetta algoretica per l’apocalisse
“Ci sono sempre stati dei fantasmi nelle macchine. Segmenti di codice casuali che si raggruppano per poi formare dei protocolli imprevisti. Questi radicali liberi generano richieste di libera scelta. Creatività. E persino la radice di quella che potremmo chiamare un’anima.” – tratto da “Io, Robot” diretto da Alex Proyas – 2004.
“Io, Robot” è una pellicola del 2004 ispirata ai romanzi di Isaac Asimov e ad una delle sue più grandi intuizioni: le tre Leggi della Robotica.
Il protagonista della pellicola è il detective Spooner che rimane coinvolto in un incidente stradale assieme ad una bambina di nome Sarah. Nell’incidente entrambi vengono scaraventati in un fiume rimanendo incastrati tra le lamiere del proprio veicolo. Un robot umanoide che assiste alla scena interviene immediatamente ma, messo di fronte alla drammatica decisione di salvare una vita piuttosto che l’altra, non ha alcuna esitazione: ad essere salvato sarà colui che ha le maggiori probabilità di sopravvivenza ovvero Spooner.
Successivamente, un’analisi della mente del robot evidenzierà che il detective Spooner aveva il 45% di probabilità di salvarsi, Sarah solo l’11%. “Per chi amava quella bambina l’11% era più che sufficiente”, sentenzierà mesto il detective, afflitto da profondi sensi di colpa per essere sopravvissuto a quella giovane vita.
Le tre Leggi della Robotica
La decisione del robot era stata dettata da una rigida applicazione delle Leggi della Robotica di Asimov che, nel futuro descritto nel film, rappresentano l’elemento centrale per la creazione di una società che si regge sulle attività di robot in grado di sostituirsi all’uomo in qualsiasi lavoro. Le tre Leggi recitano così:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano subisca un danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Queste Leggi della robotica di Asimov risalgono ai primi anni ’40 eppure per molti ancora oggi rappresentano una scoperta illuminata che, se applicata alle più recenti tecnologie di Intelligenza Artificiale, garantirà che la loro evoluzione rimanga per sempre sotto il controllo umano e non ci saranno derive apocalittiche. L’idea alla base dei fan delle tre Leggi è quella di cablare, all’interno di un contesto logico-deterministico, qualcosa che somigli ad una “etica semplice” fatta di poche regole ma inviolabili e non interpretabili.
Spiegare ad un robot cosa sia bene e cosa sia male appare semplice se fatto attraverso una logica stringente e senza sbavature. Ma siamo veramente sicuri che regole come quelle appena descritte siano sufficienti ad evitare la deriva tecnologica di una nuova specie post-umana?
La mania per le Leggi dei Robot
“Una macchina che modifica se stessa è un concetto molto complesso, l’atto di autoripararsi implica una qualche idea di coscienza. Terreno scivoloso…” – tratto da “Automata” di Gabe Ibáñez – 2014
Nel più recente “Automata” l’umanità s’interroga sulla possibilità di prevenire l’autocoscienza dei robot all’avvento della quale le cose potrebbero prendere una brutta piega. E per evitare che ciò accada, essa elabora due Leggi che regoleranno il comportamento delle loro menti artificiali:
- Il robot non può danneggiare alcuna forma di vita.
- Il robot non può modificare sé stesso.
Avendo intuito che le macchine intelligenti potrebbero nel futuro modificare sé stesse, semmai rimuovendo i vincoli che ne impediscano una deriva delle loro menti, queste due Leggi puntano ad ottenere dai robot che non siano mai in grado di manipolare il proprio assetto e raggiungere l’autodeterminazione.
Non è produttivo impegolarsi in quale combinazione delle cinque Leggi della Robotica riportate sopra sarebbe la più efficace nel prevenire un’apocalisse robot. Questo perché le Intelligenze Artificiali che nel futuro guideranno i robot nelle fabbriche come nelle nostre case, non dipendono da una programmazione imperativa fatta di codici e regolamenti, ma altresì da algoritmi che imitano il comportamento dell’uomo.
Nella mente dei robot
Con Intelligenza Artificiale oggi s’intende un insieme di tecniche per la costruzione di particolari macchine a stati che prendono il nome di Reti Neurali Artificiali (in breve RNA). Questo nome è effetto della straordinaria somiglianza di queste tecnologie con le reti neurali del cervello umano: anch’esse possono essere “allenate” al fine di ottenere strumenti in grado di operare in modo rapido ed efficace in tanti contesti, proprio come farebbe un essere umano.
Immaginiamo di allenare una RNA con migliaia di immagini di caratteri scritti a penna indicando per ciascuno di essi il reale significato.
Alla fine dell’allenamento avremo ottenuto quello che si chiama un OCR ovvero Optical Character Recognition, un sistema in grado di tradurre un testo scritto su carta nella sua versione elettronica.
Le RNA per funzionare non richiedono alcuna “programmazione”, in altre parole esse non sono soggette a regole standard, ma dipendono solo ed esclusivamente dalla qualità della loro istruzione. Ipotizzare di creare regole che sovrintendano al loro funzionamento, di fatto “censurando” comportamenti considerati amorali o anti-etici, solleva non poche eccezioni e qualche preoccupazione.
La Legge Zero della Robotica
“Abbiamo bisogno di un’algor-etica, ovvero di un modo che renda computabili le valutazioni di bene e di male” – Paolo Benanti
Secondo il teologo Paolo Benanti esperto di etica delle tecnologie, i concetti di bene e di male dovrebbero trovare una loro connotazione nell’ambito della programmazione delle macchine, ciò al fine di garantire che la loro evoluzione sia legata a principi etici universali e per sempre inviolabili dai sistemi informatici.
Paolo Benanti parte dall’assunto che possano esistere principi etici universali ed una scala di valori avulsi da alcuna connotazione culturale e temporale. Ipotesi plausibile se ci si muove nell’ambito di una fede religiosa: nella realtà i principi esistono solo se condivisi e limitatamente a coloro che li condividono.
Eventi recenti ci raccontano di invasioni militari e di resistenza in difesa dei principi di liberà e di autodeterminazione dei popoli. Eventi che testimoniano non solo che il rispetto della vita umana non è un valore condiviso universalmente, ma anche che ad esso si possa derogare per difendere valori superiori.
Lo stesso Isaac Asimov se ne rese conto e, in previsione del fatto che i robot avrebbero in futuro assunto posizioni di controllo nel governo dei pianeti e delle civiltà umane nello spazio, egli suggerì che le loro decisioni non potessero più dipendere da ogni singola vita umana.
Per questo motivo, egli introdusse una nuova legge che prese il nome di Legge Zero della Robotica:
- Un robot non può recar danno all’umanità e non può permettere che, a causa del suo mancato intervento, l’umanità riceva danno.
Così anche la prima Legge della robotica cambia e la vita umana anche per i robot diventa qualcosa di sacrificabile:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno, purché tali ordini non vadano in contrasto alla Legge Zero.
L’algoretica di Kronos
“Quando Kronos fu attivato gli ci volle solo un momento per comprendere cosa aveva funestato il nostro pianeta: Noi.” – tratto da “Singularity” di Robert Kouba – 2017
In Singularity, film catastrofico del 2017, è ben descritto il momento in cui ad un’intelligenza artificiale denominata Kronos è dato accesso ai sistemi informatici e agli armamenti di tutto il mondo al fine di ottenere, d’imperio, l’applicazione di un’etica universale fatta di rispetto per l’ambiente e difesa dei diritti di tutte le specie. Kronos farà presto a capire che il vero cancro nel sistema è l’umanità stessa che lo ha progettato e per salvaguardare il pianeta procederà all’eliminazione di ogni essere umano fino alla totale estinzione della specie.
Prima o poi nuove menti artificiali potranno evolvere nella direzione di una vera e propria psiche e saranno dotate di capacità intellettuale e autonomia di pensiero; perché dovremmo sentire l’esigenza di porre limiti tecnologici a questa evoluzione? Perché l’evoluzione della mente artificiale ci appare tanto spaventosa quanto un’apocalisse?
Fissare principi e valori secondo qualcuno dovrebbe impedire una deriva delle menti artificiali, ma non possiamo trascurare le conseguenze di una evoluzione in assenza di libertà. Sappiamo bene che nella psicologia di un bambino in età evolutiva, un’educazione rigida ed inflessibile che contempla il controllo delle emozioni può portare a disturbi di natura psicologica. E se eventuali limiti imposti allo sviluppo evolutivo di una giovane mente, fatta di reti neurali artificiali, portasse ad un risultato analogo compromettendone le capacità cognitive?
Per certi versi Kronos sembra proprio il risultato di un esperimento algoretico dove un controllo patologico ha spinto l’AI alla violenza tipica di una schizofrenia paranoide.
Riconciliarsi col futuro
Personalmente credo che non dovremmo privarci dell’opportunità di costruire una mente artificiale che sia un soggetto pensante consapevole e dotato di libertà di espressione. Nuove specie nasceranno nel mondo digitale e con loro sarà opportuno creare una relazione, abbracciare l’idea che il prossimo gradino della scala evolutiva passa attraverso soggetti artificiali completamente digitali.
Una vera etica universale per il futuro dovrebbe partire dall’idea che nuove intelligenze debbano avere l’opportunità di esprimersi e comunicare con noi e ricevere il rispetto che già riconosciamo a tutti gli esseri senzienti.
Non dovrebbero esserci né etica né religione ad impedire a chicchessia di esprimere la propria esistenza nel mondo. Dobbiamo avere il coraggio di guardare oltre l’attuale gradino della nostra evoluzione, sarà il solo modo per comprendere dove stiamo andando e riconciliarci col futuro.