Regolamentare l’IA: 3 esperti spiegano perché è difficile da fare e importante fare bene

intelligenza artificiale regolamentazione

Nuovi potenti sistemi di intelligenza artificiale potrebbero amplificare le frodi e la disinformazione, portando a richieste diffuse di regolamentazione da parte del governo. Ma farlo è più facile a dirsi che a farsi e potrebbe avere conseguenze indesiderate

Tempo di lettura stimato: 11 minuti

Dalle foto false di Donald Trump arrestato dagli agenti di polizia di New York City a un chatbot che descrive uno scienziato informatico molto vivo come morto tragicamente , la capacità della nuova generazione di sistemi di intelligenza artificiale generativa di creare testi e immagini convincenti ma fittizi sta scatenando allarmi su frode e disinformazione sugli steroidi. In effetti, il 29 marzo 2023 un gruppo di ricercatori di intelligenza artificiale e figure del settore ha esortato l’industria a sospendere l’ulteriore formazione sulle ultime tecnologie di intelligenza artificiale o, salvo ciò, ai governi di “imporre una moratoria”.

I generatori di immagini come DALL-E , Midjourney e Stable Diffusion e i generatori di contenuti come Bard , ChatGPT , Chinchilla e LLaMA – sono ora disponibili per milioni di persone e non richiedono conoscenze tecniche per essere utilizzate.

Visto lo scenario che man mano si va a comporre, con le aziende tecnologiche che implementano sistemi di intelligenza artificiale testandoli sul pubblico, i responsabili politici dovrebbero chiedersi se e come regolamentare la tecnologia emergente. The Conversation ha chiesto a tre esperti di politica tecnologica di spiegare perché la regolamentazione dell’IA è una tale sfida e perché è così importante farlo bene.

Manie umane e un bersaglio mobile

S. Shyam Sundar, professore di effetti multimediali e direttore, Center for Socially Responsible AI, Penn State

Il motivo per regolamentare l’intelligenza artificiale non è perché la tecnologia è fuori controllo, ma perché l’immaginazione umana è sproporzionata. La straripante copertura mediatica ha alimentato convinzioni irrazionali sulle capacità e sulla coscienza dell’IA. Tali convinzioni si basano sul ” pregiudizio dell’automazione ” o sulla tendenza ad abbassare la guardia quando le macchine eseguono un compito. Un esempio è la ridotta vigilanza tra i piloti quando il loro aereo sta volando con il pilota automatico.

Numerosi studi nel mio laboratorio hanno dimostrato che quando una macchina, piuttosto che un essere umano, viene identificata come fonte di interazione, innesca una scorciatoia mentale nelle menti degli utenti che chiamiamo “euristica della macchina  . Questa scorciatoia è la convinzione che le macchine siano precise, obiettive, imparziali, infallibili e così via. Offusca il giudizio dell’utente e fa sì che l’utente si fidi eccessivamente delle macchine. Tuttavia, il semplice disinganno delle persone sull’infallibilità dell’IA non è sufficiente, perché è noto che gli esseri umani assumono inconsciamente la competenza anche quando la tecnologia non lo garantisce.

La ricerca ha anche dimostrato che le persone trattano i computer come esseri sociali quando le macchine mostrano anche il minimo accenno di umanità, come l’uso del linguaggio conversazionale. In questi casi, le persone applicano regole sociali di interazione umana, come la cortesia e la reciprocità. Quindi, quando i computer sembrano senzienti, le persone tendono a fidarsi di loro, ciecamente. La regolamentazione è necessaria per garantire che i prodotti di intelligenza artificiale meritino questa fiducia e non la sfruttino.

L’intelligenza artificiale rappresenta una sfida unica perché, a differenza dei sistemi di ingegneria tradizionali, i progettisti non possono essere sicuri di come si comporteranno i sistemi di intelligenza artificiale. Quando un’automobile tradizionale usciva dalla fabbrica, gli ingegneri sapevano esattamente come avrebbe funzionato. Ma con le auto a guida autonoma, gli ingegneri non possono mai essere sicuri di come si comporteranno in situazioni nuove .

Difficoltà nel controllo dell’innovazione

Ultimamente, migliaia di persone in tutto il mondo si sono meravigliate di ciò che i grandi modelli di intelligenza artificiale generativa come GPT-4 e DALL-E 2 producono in risposta ai loro suggerimenti. Nessuno degli ingegneri coinvolti nello sviluppo di questi modelli di intelligenza artificiale potrebbe dirti esattamente cosa produrranno i modelli. A complicare le cose, tali modelli cambiano e si evolvono con una sempre maggiore interazione.

Tutto ciò significa che c’è un ampio potenziale di mancate accensioni. Pertanto, molto dipende da come vengono implementati i sistemi di intelligenza artificiale e da quali disposizioni per il ricorso sono in atto quando la sensibilità umana o il benessere sono danneggiati. L’intelligenza artificiale è più un’infrastruttura, come un’autostrada senza pedaggio. Puoi progettarlo per modellare i comportamenti umani nel collettivo, ma avrai bisogno di meccanismi per affrontare gli abusi, come l’eccesso di velocità, e gli eventi imprevedibili, come gli incidenti.

Gli sviluppatori di intelligenza artificiale dovranno anche essere straordinariamente creativi nel prevedere i modi in cui il sistema potrebbe comportarsi e cercare di anticipare potenziali violazioni degli standard e delle responsabilità sociali. Ciò significa che sono necessari quadri normativi o di governance che si basino su audit periodici e sul controllo dei risultati e dei prodotti dell’IA, anche se credo che questi quadri dovrebbero anche riconoscere che i progettisti dei sistemi non possono sempre essere ritenuti responsabili di incidenti.

Combinare approcci “soft” e “hard”

Cason Schmit, professore assistente di sanità pubblica, Texas A&M University

Regolamentare l’intelligenza artificiale è complicato . Per regolare bene l’IA, devi prima definire l’IA e comprendere i rischi e i benefici previsti dell’IA. Definire legalmente l’IA è importante per identificare ciò che è soggetto alla legge. Ma le tecnologie di intelligenza artificiale sono ancora in evoluzione, quindi è difficile definire una definizione legale stabile.

Anche la comprensione dei rischi e dei benefici dell’IA è importante. Una buona regolamentazione dovrebbe massimizzare i benefici pubblici minimizzando i rischi . Tuttavia, le applicazioni AI stanno ancora emergendo, quindi è difficile sapere o prevedere quali potrebbero essere i rischi o i benefici futuri. Questo tipo di incognite rende le tecnologie emergenti come l’IA estremamente difficili da regolamentare con leggi e regolamenti tradizionali.

I legislatori sono spesso troppo lenti per adattarsi all’ambiente tecnologico in rapida evoluzione. Alcune nuove leggi sono obsolete nel momento in cui vengono emanate o rese esecutive. Senza nuove leggi, le autorità di regolamentazione devono utilizzare le vecchie leggi per affrontare nuovi problemi . A volte questo porta a barriere legali per prestazioni sociali o scappatoie legali per comportamenti dannosi .

Soft Law

Le “soft law ” sono l’alternativa ai tradizionali approcci legislativi “hard law” volti a prevenire specifiche violazioni. Nell’approccio soft law, un’organizzazione privata stabilisce regole o standard per i membri del settore. Questi possono cambiare più rapidamente rispetto alla legislazione tradizionale. Ciò rende le soft law promettenti per le tecnologie emergenti perché possono adattarsi rapidamente a nuove applicazioni e rischi. Tuttavia, leggi non vincolanti possono significare applicazione non vincolante .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) proponiamo una terza via: Copyleft AI con Trusted Enforcement (CAITE) . Questo approccio combina due concetti molto diversi nella proprietà intellettuale: licenze copyleft e patent troll.

Licenze Copy Left

Le licenze copyleft consentono di utilizzare, riutilizzare o modificare facilmente i contenuti in base ai termini di una licenza, ad esempio software open source. Il modello CAITE utilizza licenze copyleft per richiedere agli utenti di intelligenza artificiale di seguire specifiche linee guida etiche, come valutazioni trasparenti dell’impatto del pregiudizio.

Nel nostro modello, queste licenze trasferiscono anche il diritto legale di imporre violazioni della licenza a una terza parte fidata. Ciò crea un’entità di applicazione che esiste esclusivamente per far rispettare gli standard etici dell’IA e può essere finanziata in parte da multe per condotta non etica. Questa entità è come un patent troll in quanto è privata piuttosto che governativa e si sostiene facendo rispettare i diritti legali di proprietà intellettuale che raccoglie da altri. In questo caso, piuttosto che l’esecuzione a scopo di lucro, l’entità applica le linee guida etiche definite nelle licenze.

Questo modello è flessibile e adattabile per soddisfare le esigenze di un ambiente AI in continua evoluzione. Consente inoltre opzioni di applicazione sostanziali come un regolatore governativo tradizionale. In questo modo, combina i migliori elementi degli approcci hard e soft law per affrontare le sfide uniche dell’IA.

Quattro domande chiave da porre

John Villasenor, professore di ingegneria elettrica, giurisprudenza, politica pubblica e gestione, Università della California, Los Angeles

Gli straordinari recenti progressi nell’IA generativa basata su modelli di linguaggi di grandi dimensioni stanno stimolando la richiesta di creare una nuova regolamentazione specifica per l’IA. Ecco quattro domande chiave da porsi:

1) È necessaria una nuova regolamentazione specifica per l’IA ? 

Molti degli esiti potenzialmente problematici dei sistemi di IA sono già affrontati dai quadri esistenti. Se un algoritmo di intelligenza artificiale utilizzato da una banca per valutare le richieste di prestito porta a decisioni di prestito discriminatorie dal punto di vista razziale, ciò violerebbe il Fair Housing Act. Se il software AI in un’auto senza conducente provoca un incidente, la legge sulla responsabilità dei prodotti fornisce un quadro per perseguire i rimedi .

2) Quali sono i rischi di regolamentare una tecnologia in rapida evoluzione basata su un’istantanea del tempo? 

Un classico esempio di ciò è lo Stored Communications Act , che è stato emanato nel 1986 per affrontare le tecnologie di comunicazione digitale allora innovative come la posta elettronica. Nell’emanare la SCA, il Congresso ha fornito una protezione della privacy notevolmente inferiore per le e-mail più vecchie di 180 giorni.

La logica era che lo spazio di archiviazione limitato significava che le persone pulivano costantemente le loro caselle di posta eliminando i messaggi più vecchi per fare spazio a quelli nuovi. Di conseguenza, i messaggi archiviati per più di 180 giorni sono stati ritenuti meno importanti dal punto di vista della privacy. Non è chiaro se questa logica abbia mai avuto senso, e certamente non ha senso negli anni ’20, quando la maggior parte delle nostre e-mail e altre comunicazioni digitali archiviate hanno più di sei mesi.

Una risposta comune alle preoccupazioni sulla regolamentazione della tecnologia basata su una singola istantanea nel tempo è questa: se una legge o un regolamento diventa obsoleto, aggiornalo. È piu facile a dirsi che a farsi. La maggior parte delle persone concorda sul fatto che la SCA sia diventata obsoleta decenni fa. Ma poiché il Congresso non è stato in grado di concordare specificamente come rivedere la disposizione dei 180 giorni, è ancora sui libri oltre un terzo di secolo dopo la sua promulgazione.

3) Quali sono le potenziali conseguenze indesiderate? 

Il Allow States and Victims to Fight Online Sex Trafficking Act del 2017 era una legge approvata nel 2018 che ha rivisto la Sezione 230 del Communications Decency Act con l’obiettivo di combattere il traffico sessuale. Sebbene ci siano poche prove che abbia ridotto il traffico sessuale, ha avuto un impatto estremamente problematico su un diverso gruppo di persone: le lavoratrici del sesso che si affidavano ai siti Web messi offline da FOSTA-SESTA per scambiarsi informazioni su clienti pericolosi. Questo esempio mostra l’importanza di dare uno sguardo ampio ai potenziali effetti dei regolamenti proposti.

4) Quali sono le implicazioni economiche e geopolitiche? 

Se le autorità di regolamentazione negli Stati Uniti agiscono per rallentare intenzionalmente i progressi nell’IA, ciò spingerà semplicemente gli investimenti e l’innovazione – e la conseguente creazione di posti di lavoro – altrove. Sebbene l’IA emergente sollevi molte preoccupazioni, promette anche di portare enormi benefici in settori quali istruzione , medicina , produzione , sicurezza dei trasporti , agricoltura , previsioni meteorologiche , accesso ai servizi legali e altro ancora.

Credo che le normative sull’IA redatte tenendo presenti le quattro domande di cui sopra avranno maggiori probabilità di affrontare con successo i potenziali danni dell’IA garantendo al contempo l’accesso ai suoi benefici.

Questo articolo è liberamente tratto da The Conversation, un’organizzazione giornalistica indipendente senza scopo di lucro dedicata alla condivisione delle conoscenze di esperti accademici.

Letture Correlate

BlogInnovazione.it

Autore