Articles

Regulació de la IA: 3 experts expliquen per què és difícil i important fer-ho bé

Els nous sistemes potents d'IA podrien amplificar el frau i la desinformació, donant lloc a demandes generalitzades de regulació governamental. Però fer-ho és més fàcil de dir que de fer i podria tenir conseqüències no desitjades

Temps estimat de lectura: 11 acta

Dóna-li a ella fotos falses de Donald Trump arrestat per agents de policia de la ciutat de Nova York a un chatbot que descriu un informàtic ben viu ja que va morir tràgicament , la capacitat de la nova generació de sistemes intel·ligència artificial L'impuls generatiu per crear textos i imatges convincents però ficticis està provocant alarmes sobre el frau amb esteroides i la desinformació. De fet, el 29 de març de 2023 un grup d'investigadors d'IA i figures de la indústria van instar la indústria a suspendre la formació addicional sobre les últimes tecnologies d'IA o, tret d'això, els governs a "imposar una moratòria".

Generadors d'imatges com LLOSA , A mig camí e Difusió estable i generadors de contingut com ara Bard , Xat GPT , xinxilla e LLAMA – Ara estan disponibles per a milions de persones i no requereixen coneixements tècnics per utilitzar-los.

Atès el panorama en desenvolupament de les empreses tecnològiques que despleguen sistemes d'IA i els posen a prova al públic, els responsables polítics haurien de preguntar-se si i com regular la tecnologia emergent. La conversa va demanar a tres experts en polítiques tecnològiques que expliquessin per què regular la IA és un repte tant i per què és tan important fer-ho bé.

Debilitats humanes i un objectiu en moviment

S. Shyam Sundar, professor d'efectes multimèdia i director, Center for Socially Responsible AI, Penn State

La raó per regular la IA no és perquè la tecnologia està fora de control, sinó perquè la imaginació humana està desproporcionada. La cobertura mediàtica aclaparadora ha alimentat creences irracionals sobre les capacitats i la consciència de la IA. Aquestes creences es basen en el " biaix d'automatització ” o sobre la tendència a baixar la guàrdia quan les màquines realitzen una tasca. Un exemple és la reducció de la vigilància entre els pilots quan el seu avió vola amb pilot automàtic.

Nombrosos estudis al meu laboratori han demostrat que quan una màquina, en lloc d'un humà, s'identifica com a font d'interacció, desencadena una drecera mental a la ment dels usuaris que anomenem "heurística de la màquina". " . Aquesta abreviatura és la creença que les màquines són precises, objectives, imparcials, infal·libles, etc. Ennuvola el judici de l'usuari i fa que l'usuari confiï excessivament en les màquines. Tanmateix, simplement desil·lusionar la gent sobre la infal·libilitat de la IA no és suficient, perquè se sap que els humans assumeixen inconscientment la competència fins i tot quan la tecnologia no ho garanteix.

Les investigacions també ho han demostrat la gent tracta els ordinadors com a éssers socials quan les màquines mostren fins i tot el més mínim indici d'humanitat, com l'ús del llenguatge conversacional. En aquests casos, les persones apliquen regles socials d'interacció humana, com ara la cortesia i la reciprocitat. Així, quan els ordinadors semblen sensibles, la gent tendeix a confiar-hi cegament. Cal una regulació per garantir que els productes d'IA mereixin aquesta confiança i no l'explotin.

La IA presenta un repte únic perquè, a diferència dels sistemes d'enginyeria tradicionals, els dissenyadors no poden estar segurs de com funcionaran els sistemes d'IA. Quan un automòbil tradicional va sortir de la fàbrica, els enginyers sabien exactament com anava a funcionar. Però amb cotxes autònoms, enginyers mai poden estar segurs de com es comportaran en situacions noves .

Dificultat per controlar la innovació

Darrerament, milers de persones a tot el món s'han meravellat del que produeixen grans models d'IA generativa com GPT-4 i DALL-E 2 en resposta als seus suggeriments. Cap dels enginyers implicats en el desenvolupament d'aquests models d'IA no podria dir-vos exactament què produiran els models. Per complicar les coses, aquests models canvien i evolucionen amb una interacció cada cop més gran.

Tot això significa que hi ha un ampli potencial de fallades. Per tant, depèn molt de com s'implementin els sistemes d'IA i de quines disposicions de recurs hi hagi quan es perjudiquin la sensibilitat humana o el benestar. La IA és més aviat una infraestructura, com una autopista. Podeu dissenyar-lo per donar forma al comportament humà en el col·lectiu, però necessitareu mecanismes per fer front als abusos, com ara l'excés de velocitat, i esdeveniments imprevisibles, com els accidents.

Els desenvolupadors d'IA també hauran de ser extraordinàriament creatius per predir com es podria comportar el sistema i tractar d'anticipar possibles violacions dels estàndards i responsabilitats socials. Això vol dir que calen marcs reguladors o de govern que es basen en auditories periòdiques i control dels resultats i productes d'IA, tot i que crec que aquests marcs també haurien de reconèixer que els dissenyadors de sistemes no sempre poden ser responsables dels incidents.

Combinant enfocaments "suau" i "dur".

Cason Schmit, professor ajudant de salut pública, Texas A&M University

Regular la intel·ligència artificial és complicat . Per ajustar bé la IA, primer cal defiacabar amb la IA i comprendre els riscos i beneficis esperats de la IA. DefiLegalitzar la IA és important per identificar què està subjecte a la llei. Però les tecnologies d'IA encara estan evolucionant, així que és difícil defiacabar un defidefinició legal estable.

També és important comprendre els riscos i els beneficis de la IA. Una bona regulació hauria de maximitzar els beneficis públics alhora que minimitza els riscos. Tanmateix, les aplicacions d'IA encara estan sorgint, de manera que és difícil saber o predir quins poden ser els riscos o beneficis futurs. Aquest tipus d'incògnites fan que les tecnologies emergents com la IA sigui extremadament difícil de regular amb les lleis i reglaments tradicionals.

Els legisladors ho són sovint massa lent per ajustar-se a l'entorn tecnològic que canvia ràpidament. Algú noves lleis estan obsolets en el moment en què s'emeten o fet executiu. Sense noves lleis, reguladors han d'utilitzar les antigues lleis encarar nous problemes . De vegades això porta a barreres legals / prestacions socials o llacunes legals / conductes nocives .

Llei suau

El "llei suau " són l'alternativa als enfocaments legislatius tradicionals de "llei dura" dirigits a prevenir violacions específiques. En l'enfocament del soft law, una organització privada estableix normes o estàndards per als membres del sector. Aquests poden canviar més ràpidament que la legislació tradicional. Que fà prometedores lleis blanes per a les tecnologies emergents perquè poden adaptar-se ràpidament a noves aplicacions i riscos. Malgrat això, Les lleis suaus poden significar una aplicació suau .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) proposem una tercera via: Copyleft AI amb Trusted Enforcement (CAITE) . Aquest enfocament combina dos conceptes molt diferents en propietat intel·lectual: les llicències copyleft e patent troll.

Copia les llicències esquerres

Les llicències copyleft us permeten utilitzar, reutilitzar o modificar fàcilment contingut sota els termes d'una llicència, com ara programari de codi obert. Model CAITE utilitzar llicències copyleft exigir als usuaris d'IA que segueixin directrius ètiques específiques, com ara avaluacions transparents de l'impacte del biaix.

En el nostre model, aquestes llicències també transfereixen el dret legal d'executar les infraccions de llicència a un tercer de confiança. Això crea una entitat d'execució que existeix únicament per fer complir els estàndards ètics de la IA i que es pot finançar en part amb multes per conductes no ètiques. Aquesta entitat és com una patent troll ja que és privat més que governamental i es sosté fent complir els drets legals de propietat intel·lectual que recull dels altres. En aquest cas, en lloc de tenir ànim de lucre, l'entitat fa complir les directrius ètiques definit en llicències.

Aquest model és flexible i adaptable per satisfer les necessitats d'un entorn d'IA en constant canvi. També permet opcions d'aplicació substancials com un regulador governamental tradicional. D'aquesta manera, combina els millors elements dels enfocaments de dret dur i legal per abordar els reptes únics de la IA.

Quatre preguntes clau per fer

John Villasenor, professor d'enginyeria elèctrica, dret, polítiques públiques i gestió, Universitat de Califòrnia, Los Angeles

La avenços recents extraordinaris en grans llenguatges, la IA generativa basada en models està estimulant la demanda de crear una nova regulació específica de la IA. Aquí teniu quatre preguntes clau per fer-vos:

1) Cal una nova regulació específica per a la IA? 

Molts dels resultats potencialment problemàtics dels sistemes d'IA ja estan abordats pels marcs existents. Si un algorisme d'IA utilitzat per un banc per avaluar les sol·licituds de préstec condueix a decisions de préstecs racialment discriminatòries, infringiria la Llei d'habitatge just. Si el programari d'IA en un cotxe sense conductor provoca un accident, la llei de responsabilitat del producte preveu un marc per a la recerca de recursos .

2) Quins són els riscos de regular una tecnologia en ràpida evolució basada en una instantània del temps? 

Un exemple clàssic d'això és el Llei de comunicacions emmagatzemades , que es va promulgar el 1986 per abordar les tecnologies de comunicació digitals aleshores innovadores com el correu electrònic. En promulgar la SCA, el Congrés va proporcionar una protecció de privadesa significativament menor per al correu electrònic de més de 180 dies.

La raó era que l'emmagatzematge limitat significava que la gent netejava constantment les seves safates d'entrada esborrant missatges més antics per deixar espai per als nous. Com a resultat, els missatges arxivats durant més de 180 dies es van considerar menys importants des del punt de vista de la privadesa. No està clar si aquesta lògica mai va tenir sentit, i certament no té sentit als anys 20, quan la majoria dels nostres correus electrònics i altres comunicacions digitals arxivades tenen més de sis mesos d'antiguitat.

Una resposta habitual a les preocupacions sobre la regulació de la tecnologia basada en una única instantània al llarg del temps és la següent: si una llei o reglament queda obsoleta, actualitzeu-la. És més fàcil dir-ho que fer. La majoria de la gent està d'acord que SCA va quedar obsolet fa dècades. Però com que el Congrés no va poder posar-se d'acord específicament sobre com revisar la disposició de 180 dies, encara està en els llibres més d'un terç de segle després de la seva promulgació.

3) Quines són les possibles conseqüències no desitjades? 

Il Permet als estats i a les víctimes lluitar contra la Llei de tràfic sexual en línia de 2017 va ser una llei aprovada el 2018 que va revisar Article 230 de la Llei de decència en les comunicacions amb l'objectiu de combatre el tràfic sexual. Tot i que hi ha poques evidències que hagi reduït el tràfic sexual, ha tingut a impacte extremadament problemàtic en un grup diferent de persones: les treballadores sexuals que es basaven en llocs web que FOSTA-SESTA ha fet fora de línia per intercanviar informació sobre clients perillosos. Aquest exemple mostra la importància de fer una visió àmplia dels efectes potencials de les normatives proposades.

4) Quines són les implicacions econòmiques i geopolítiques? 

Si els reguladors dels Estats Units prenen mesures per frenar intencionadament el progrés de la IA, simplement impulsarà la inversió i la innovació, i la creació de llocs de treball resultant, a altres llocs. Tot i que la IA emergent planteja moltes preocupacions, també promet aportar grans beneficis en àrees com ara educació , medicina , producció , seguretat en el transport , agricultura , previsions meteorològiques , accés als serveis jurídics i molt més.

Crec que les regulacions d'IA redactades tenint en compte les quatre preguntes anteriors tindran més possibilitats d'abordar amb èxit els danys potencials de la IA alhora que garanteixen l'accés als seus beneficis.

Aquest article és un extracte lliure de The Conversation, una organització de notícies independent sense ànim de lucre dedicada a compartir el coneixement d'experts acadèmics.

Lectures relacionades

BlogInnovazione.it

Butlletí d'innovació
No et perdis les notícies més importants sobre innovació. Registra't per rebre'ls per correu electrònic.

Articles recents

Els avantatges de les pàgines per pintar per a nens: un món de màgia per a totes les edats

El desenvolupament de la motricitat fina a través del color prepara els nens per a habilitats més complexes com escriure. Per acolorir...

2 maig 2024

El futur és aquí: com la indústria naviliera està revolucionant l'economia global

El sector naval és una veritable potència econòmica mundial, que ha navegat cap a un mercat de 150 milions...

1 maig 2024

Els editors i OpenAI signen acords per regular el flux d'informació processada per la Intel·ligència Artificial

Dilluns passat, el Financial Times va anunciar un acord amb OpenAI. FT autoritza el seu periodisme de classe mundial...

30 2024 abril

Pagaments en línia: aquí teniu com els serveis de streaming us fan pagar per sempre

Milions de persones paguen per serveis de streaming, pagant quotes de subscripció mensuals. És l'opinió comuna que tu...

29 2024 abril