Artigos

Regulando a IA: 3 expertos explican por que é difícil e importante facelo ben

Poderosos novos sistemas de intelixencia artificial poderían amplificar a fraude e a desinformación, o que leva a peticións xeneralizadas de regulación gobernamental. Pero facelo é máis fácil dicir que facelo e pode ter consecuencias non desexadas

Tempo estimado de lectura: 11 minutos

Dálle fotos falsas de Donald Trump arrestado por policías da cidade de Nova York a un chatbot que describiu un informático moi vivo como morreu tráxicamente , a capacidade da nova xeración de sistemas intelixencia artificial o impulso xerador para crear textos e imaxes convincentes pero ficticios está a provocar alarmas sobre a fraude de esteroides e a desinformación. De feito, o 29 de marzo de 2023, un grupo de investigadores de IA e figuras da industria instou á industria a suspender a formación continua sobre as últimas tecnoloxías de IA ou, salvo iso, aos gobernos a "impoñer unha moratoria".

Xeradores de imaxes como LOSA , Media viaxe e Difusión estable e xeradores de contidos como Bardo , Chat GPT , Chinchilla e LLAMA - agora están dispoñibles para millóns de persoas e non requiren coñecementos técnicos para o seu uso.

Dado o panorama en desenvolvemento das empresas tecnolóxicas que implantan sistemas de intelixencia artificial e os proban no público, os responsables políticos deberían preguntarse se e como se deben regular a tecnoloxía emerxente. A Conversa pediu a tres expertos en políticas tecnolóxicas que explicasen por que regular a IA é un desafío tan grande e por que é tan importante facelo ben.

Debilidades humanas e un obxectivo en movemento

S. Shyam Sundar, profesor de efectos multimedia e director, Center for Socially Responsible AI, Penn State

A razón para regular a IA non é porque a tecnoloxía estea fóra de control, senón porque a imaxinación humana está desproporcionada. A abrumadora cobertura mediática alimentou crenzas irracionais sobre as capacidades e a conciencia da IA. Estas crenzas baséanse no " sesgo de automatización ” ou sobre a tendencia a baixar a garda cando as máquinas realizan unha tarefa. Un exemplo é a reducida vixilancia entre os pilotos cando o seu avión voa en piloto automático.

Numerosos estudos realizados no meu laboratorio demostraron que cando se identifica unha máquina, máis que un humano, como a fonte de interacción, desencadea un atallo mental na mente dos usuarios que chamamos "heurística de máquina". " . Esta abreviatura é a crenza de que as máquinas son precisas, obxectivas, imparciais, infalibles, etc. Nubla o criterio do usuario e fai que o usuario confíe excesivamente nas máquinas. Non obstante, simplemente desilusionar á xente sobre a infalibilidade da intelixencia artificial non é suficiente, porque sábese que os humanos asumen inconscientemente a competencia mesmo cando a tecnoloxía non o garante.

A investigación tamén demostrou que a xente trata os ordenadores como seres sociais cando as máquinas mostran ata o máis mínimo indicio de humanidade, como o uso da linguaxe conversacional. Nestes casos, as persoas aplican regras sociais de interacción humana, como a cortesía e a reciprocidade. Entón, cando os ordenadores parecen sensibles, a xente adoita confiar neles cegamente. É necesaria unha regulación para garantir que os produtos de IA merecen esta confianza e non a exploten.

A IA presenta un desafío único porque, a diferenza dos sistemas de enxeñería tradicionais, os deseñadores non poden estar seguros de como funcionarán os sistemas de IA. Cando un automóbil tradicional saíu da fábrica, os enxeñeiros sabían exactamente como ía funcionar. Pero con coches autónomos, enxeñeiros nunca poden estar seguros de como se comportarán ante novas situacións .

Dificultade para controlar a innovación

Últimamente, miles de persoas en todo o mundo maravilláronse co que grandes modelos de IA xerativa como GPT-4 e DALL-E 2 producen en resposta ás súas suxestións. Ningún dos enxeñeiros implicados no desenvolvemento destes modelos de IA podería dicirche exactamente o que producirán os modelos. Para complicar as cousas, estes modelos cambian e evolucionan cunha interacción cada vez maior.

Todo isto significa que hai un amplo potencial de fallos. Polo tanto, moito depende de como se implementen os sistemas de intelixencia artificial e de que disposicións para o recurso existan cando se prexudique a sensibilidade humana ou o benestar. A IA é máis unha infraestrutura, como unha autoestrada. Podes deseñalo para dar forma aos comportamentos humanos no colectivo, pero necesitarás mecanismos para xestionar abusos, como exceso de velocidade, e eventos imprevisibles, como accidentes.

Os desenvolvedores de IA tamén terán que ser extraordinariamente creativos á hora de prever as formas en que se pode comportar o sistema e tentar prever posibles violacións dos estándares e responsabilidades sociais. Isto significa que son necesarios marcos normativos ou de goberno que dependan de auditorías periódicas e de control dos resultados e produtos da IA, aínda que creo que estes marcos tamén deberían recoñecer que os deseñadores de sistemas non sempre poden ser responsables dos incidentes.

Combinando enfoques "suave" e "duro".

Cason Schmit, profesor asistente de saúde pública, Texas A&M University

Regular a intelixencia artificial é complicado . Para sintonizar ben a IA, primeiro debes facelo defirematar a IA e comprender os riscos e beneficios esperados da IA. DefiLegalizar a IA é importante para identificar o que está suxeito á lei. Pero as tecnoloxías de IA seguen evolucionando, polo que é difícil defirematar un defidefinición legal estable.

Tamén é importante comprender os riscos e beneficios da IA. Unha boa regulación debería maximizar os beneficios públicos minimizando os riscos. Non obstante, as aplicacións de IA aínda están xurdindo, polo que é difícil saber ou prever cales poderían ser os riscos ou beneficios futuros. Este tipo de incógnitas fan que as tecnoloxías emerxentes como a IA sexan extremadamente difícil de regular coas leis e regulamentos tradicionais.

Os lexisladores son moitas veces demasiado lento para axustarse ao entorno tecnolóxico en rápido cambio. Alguén novas leis están obsoletos no momento en que se emiten ou feito executivo. Sen novas leis, reguladores teñen que usar as vellas leis enfrontarse novos problemas . Ás veces isto leva a barreiras legais per beneficios sociais o lagoas legais per comportamentos nocivos .

Lei Soft

O "lei suave ” son a alternativa aos enfoques lexislativos tradicionais de “dereito duro” destinados a previr violacións específicas. No enfoque de soft law, establece unha organización privada normas ou normas para os membros da industria. Estes poden cambiar máis rapidamente que a lexislación tradicional. Iso fai prometendo leis suaves para tecnoloxías emerxentes porque poden adaptarse rapidamente ás novas aplicacións e riscos. Non obstante, As leis suaves poden significar unha aplicación suave .

Megan Doerr , Jennifer Wagner e io (Casón Schmit) propoñemos unha terceira vía: Copyleft AI con Trusted Enforcement (CAITE) . Este enfoque combina dous conceptos moi diferentes en propiedade intelectual: as licenzas copyleft e patent troll.

Copiar licenzas esquerda

As licenzas copyleft permítelle usar, reutilizar ou modificar facilmente o contido baixo os termos dunha licenza, como o software de código aberto. Modelo CAITE usar licenzas copyleft para esixir aos usuarios de IA que sigan directrices éticas específicas, como avaliacións transparentes do impacto do sesgo.

No noso modelo, estas licenzas tamén transfiren o dereito legal de facer cumprir as infraccións da licenza a un terceiro de confianza. Isto crea unha entidade de aplicación que existe unicamente para facer cumprir os estándares éticos da IA ​​e que pode financiarse en parte con multas por condutas pouco éticas. Esta entidade é como un patent troll xa que é privado máis que gobernamental e se sustenta facendo valer os dereitos legais de propiedade intelectual que recolle doutros. Neste caso, en lugar de funcionar con ánimo de lucro, a entidade aplica pautas éticas definoite nas licenzas.

Este modelo é flexible e adaptable para satisfacer as necesidades dun ambiente de IA en constante cambio. Tamén permite opcións de aplicación substanciais como un regulador gobernamental tradicional. Deste xeito, combina os mellores elementos dos enfoques de dereito duro e non legal para abordar os desafíos únicos da IA.

Catro preguntas clave para facer

John Villasenor, profesor de enxeñería eléctrica, dereito, políticas públicas e xestión da Universidade de California, Los Ángeles

extraordinario progreso recente en grandes linguaxes, a IA xerativa baseada en modelos están estimulando a demanda de crear unha nova regulación específica para a IA. Aquí tes catro preguntas clave para facerte:

1) É necesario unha nova regulación específica para a IA? 

Moitos dos resultados potencialmente problemáticos dos sistemas de IA xa están abordados polos marcos existentes. Se un algoritmo de intelixencia artificial usado por un banco para avaliar solicitudes de préstamo leva a decisións de préstamos racialmente discriminatorias, violaría a Lei de vivenda equitativa. Se o software de intelixencia artificial nun coche sen condutor provoca un accidente, a lei de responsabilidade por produtos proporciona un marco para buscar recursos .

2) Cales son os riscos de regular unha tecnoloxía en rápida evolución baseada nunha instantánea do tempo? 

Un exemplo clásico disto é o Lei de comunicacións almacenadas , que foi promulgada en 1986 para abordar as tecnoloxías da comunicación dixital daquela innovadoras como o correo electrónico. Ao promulgar o SCA, o Congreso proporcionou unha protección de privacidade significativamente menor para o correo electrónico de máis de 180 días.

A razón era que o almacenamento limitado significaba que a xente limpaba constantemente as súas caixas de entrada eliminando mensaxes antigas para deixar espazo para outras novas. Como resultado, as mensaxes arquivadas durante máis de 180 días consideráronse menos importantes desde a perspectiva da privacidade. Non está claro se esta lóxica xa tivo sentido, e certamente non ten sentido na década de 20, cando a maioría dos nosos correos electrónicos e outras comunicacións dixitais arquivadas teñen máis de seis meses de antigüidade.

Unha resposta común ás preocupacións sobre a regulación da tecnoloxía baseada nunha única instantánea ao longo do tempo é a seguinte: se unha lei ou un regulamento queda obsoleto, actualízao. É máis fácil dicir que facelo. A maioría da xente está de acordo en que SCA quedou obsoleto hai décadas. Pero debido a que o Congreso non puido acordar específicamente como revisar a disposición de 180 días, aínda está nos libros máis dun terzo de século despois de que fose promulgada.

3) Cales son as posibles consecuencias non desexadas? 

Il Permitir aos estados e ás vítimas loitar contra a lei de tráfico sexual en liña de 2017 foi unha lei aprobada en 2018 que revisou Artigo 230 da Lei de Decencia das Comunicacións co obxectivo de loitar contra o tráfico sexual. Aínda que hai poucas probas de que reduciu o tráfico sexual, tivo unha impacto extremadamente problemático nun grupo diferente de persoas: traballadoras do sexo que confiaban en sitios web que FOSTA-SESTA desconectaba para intercambiar información sobre clientes perigosos. Este exemplo mostra a importancia de ter unha visión ampla dos posibles efectos da normativa proposta.

4) Cales son as implicacións económicas e xeopolíticas? 

Se os reguladores dos Estados Unidos toman medidas para retardar intencionadamente o progreso na IA, iso simplemente impulsará o investimento e a innovación, e a consecuente creación de emprego, noutros lugares. Aínda que a IA emerxente suscita moitas preocupacións, tamén promete traer grandes beneficios en áreas como instrución , medicina , produción , seguridade do transporte , Agricultura , previsións meteorolóxicas , acceso a servizos xurídicos e máis.

Creo que as normas de IA redactadas tendo en conta as catro preguntas anteriores terán máis probabilidades de abordar con éxito os posibles danos da IA ​​ao tempo que se garante o acceso aos seus beneficios.

Este artigo está extraído libremente de The Conversation, unha organización de noticias independente sen ánimo de lucro dedicada a compartir o coñecemento de expertos académicos.

Lecturas relacionadas

BlogInnovazione.it

Boletín de innovación
Non te perdas as novidades máis importantes sobre innovación. Rexístrese para recibilos por correo electrónico.

Artigos recentes

O futuro está aquí: como a industria do transporte marítimo está revolucionando a economía global

O sector naval é unha verdadeira potencia económica mundial, que navega cara a un mercado de 150 millóns...

1 maio 2024

Editores e OpenAI asinan acordos para regular o fluxo de información procesada pola Intelixencia Artificial

O pasado luns, o Financial Times anunciou un acordo con OpenAI. FT licencia o seu xornalismo de clase mundial...

Abril 30 2024

Pagos en liña: aquí tes como os servizos de streaming che fan pagar para sempre

Millóns de persoas pagan por servizos de streaming, pagando taxas de subscrición mensuais. É unha opinión común que vostede...

Abril 29 2024

Veeam ofrece o soporte máis completo para ransomware, desde a protección ata a resposta e a recuperación

Coveware by Veeam continuará ofrecendo servizos de resposta a incidentes de extorsión cibernética. Coveware ofrecerá capacidades forenses e de remediación...

Abril 23 2024