Articles

Réglementer l'IA : 3 experts expliquent pourquoi il est difficile de faire et important de bien faire

De nouveaux systèmes d’IA puissants pourraient amplifier la fraude et la désinformation, conduisant à des appels généralisés en faveur d’une réglementation gouvernementale. Mais cela est plus facile à dire qu’à faire et pourrait avoir des conséquences inattendues.

Temps de lecture estimé : 11 minuti

À partir de fausses photos de Donald Trump arrêté par des policiers de la ville de New York à un chatbot décrivant un informaticien bien vivant car décédé tragiquement , la capacité de la nouvelle génération de systèmes l'intelligence artificielle la volonté générative de créer des textes et des images convaincants mais fictifs déclenche des alarmes sur la fraude aux stéroïdes et la désinformation. En effet, le 29 mars 2023, un groupe de chercheurs en IA et de personnalités de l'industrie ont exhorté l'industrie à suspendre la formation continue sur les dernières technologies d'IA ou, à défaut, les gouvernements à "imposer un moratoire".

Générateurs d'images comme DALL-E , À mi-parcours e Diffusion stable et des générateurs de contenu tels que barde , ChatGPT , Chinchilla e Lama – sont désormais accessibles à des millions de personnes et ne nécessitent aucune connaissance technique pour être utilisés.

Compte tenu de l'évolution du paysage des entreprises technologiques qui déploient des systèmes d'IA et les testent sur le public, les décideurs politiques devraient se demander si et comment réglementer la technologie émergente. The Conversation a demandé à trois experts en politique technologique d'expliquer pourquoi la réglementation de l'IA est un tel défi et pourquoi il est si important de bien faire les choses.

Faiblesses humaines et cible mouvante

S. Shyam Sundar, professeur d'effets multimédias et directeur, Center for Socially Responsible AI, Penn State

La raison de réglementer l'IA n'est pas parce que la technologie est hors de contrôle, mais parce que l'imagination humaine est hors de proportion. Une couverture médiatique écrasante a alimenté des croyances irrationnelles sur les capacités et la conscience de l'IA. Ces croyances sont fondées sur le " biais d'automatisation » ou sur la tendance à baisser la garde lorsque les machines exécutent une tâche. Un exemple est la vigilance réduite des pilotes lorsque leur avion vole en pilote automatique.

De nombreuses études dans mon laboratoire ont montré que lorsqu'une machine, plutôt qu'un humain, est identifiée comme source d'interaction, elle déclenche un raccourci mental dans l'esprit des utilisateurs que nous appelons "l'heuristique de la machine". " . Ce raccourci est la croyance que les machines sont précises, objectives, impartiales, infaillibles, etc. Cela obscurcit le jugement de l'utilisateur et l'amène à faire excessivement confiance aux machines. Cependant, il ne suffit pas de désillusionner les gens sur l'infaillibilité de l'IA, car les humains sont connus pour assumer inconsciemment la compétence même lorsque la technologie ne le justifie pas.

La recherche a également montré que les gens traitent les ordinateurs comme des êtres sociaux lorsque les machines montrent le moindre soupçon d'humanité, comme l'utilisation du langage conversationnel. Dans ces cas, les gens appliquent des règles sociales d'interaction humaine, telles que la courtoisie et la réciprocité. Ainsi, lorsque les ordinateurs semblent sensibles, les gens ont tendance à leur faire aveuglément confiance. Une réglementation est nécessaire pour garantir que les produits d'IA méritent cette confiance et ne l'exploitent pas.

L'IA présente un défi unique car, contrairement aux systèmes d'ingénierie traditionnels, les concepteurs ne peuvent pas être sûrs de la performance des systèmes d'IA. Lorsqu'une automobile traditionnelle sortait de l'usine, les ingénieurs savaient exactement comment elle allait fonctionner. Mais avec les voitures autonomes, les ingénieurs ils ne peuvent jamais être sûrs de la façon dont ils se comporteront dans de nouvelles situations .

Difficulté à maîtriser l'innovation

Dernièrement, des milliers de personnes à travers le monde se sont émerveillées de ce que les grands modèles d'IA générative comme GPT-4 et DALL-E 2 produisent en réponse à leurs suggestions. Aucun des ingénieurs impliqués dans le développement de ces modèles d'IA n'a pu vous dire exactement ce que les modèles produiront. Pour compliquer les choses, ces modèles changent et évoluent avec une interaction toujours plus grande.

Tout cela signifie qu'il existe un grand potentiel de ratés. Par conséquent, tout dépend de la manière dont les systèmes d'IA sont mis en œuvre et des dispositions de recours en place lorsque la sensibilité ou le bien-être humain est atteint. L'IA est plus une infrastructure, comme une autoroute. Vous pouvez le concevoir pour façonner les comportements humains dans le collectif, mais vous aurez besoin de mécanismes pour faire face aux abus, comme les excès de vitesse, et aux événements imprévisibles, comme les accidents.

Les développeurs d'IA devront également être extrêmement créatifs pour prédire la manière dont le système pourrait se comporter et essayer d'anticiper les violations potentielles des normes et responsabilités sociales. Cela signifie qu'il est nécessaire de disposer de cadres réglementaires ou de gouvernance qui reposent sur des audits et un examen périodiques des résultats et des produits de l'IA, bien que je pense que ces cadres devraient également reconnaître que les concepteurs de systèmes ne peuvent pas toujours être tenus responsables des incidents .

Combiner les approches « douces » et « dures »

Cason Schmit, professeur adjoint de santé publique, Texas A&M University

La régulation de l'intelligence artificielle est compliquée . Pour bien régler l’IA, il faut d’abord defimettre fin à l’IA et comprendre les risques et les avantages attendus de l’IA. DefiLégaliser l’IA est important pour identifier ce qui est soumis à la loi. Mais les technologies de l'IA continuent d'évoluer, c'est donc difficile defien finir un defidéfinition juridique stable.

Comprendre les risques et les avantages de l’IA est également important. Une bonne réglementation doit maximiser les avantages publics tout en minimisant les risques. Cependant, les applications de l’IA sont encore émergentes, il est donc difficile de connaître ou de prédire quels pourraient être les risques ou les avantages futurs. Ces types d’inconnues rendent les technologies émergentes comme l’IA extrêmement difficile à réguler avec les lois et règlements traditionnels.

Les législateurs sont souvent trop lent à s'adapter à l'environnement technologique en évolution rapide. Quelques nouvelles lois sont obsolètes au moment de leur publication ou forcée. Sans nouvelles lois, les régulateurs ils doivent utiliser les anciennes lois par affrontare de nouveaux problèmes . Cela conduit parfois à barrières juridiques / avantages sociaux o vides juridiques / comportements nuisibles .

Loi souple

Le "loi souple » sont l'alternative aux approches législatives traditionnelles de « droit dur » visant à prévenir des violations spécifiques. Dans l'approche non contraignante, une organisation privée établit règles ou normes pour les membres de l'industrie. Celles-ci peuvent changer plus rapidement que la législation traditionnelle. Qui fait lois molles prometteuses pour les technologies émergentes car elles peuvent s'adapter rapidement aux nouvelles applications et aux nouveaux risques. Toutefois, Des lois non contraignantes peuvent signifier une application souple .

Megan Doer , Jennifer Wagner e io (Cason Schmit) nous proposons une troisième voie : Copyleft AI avec application de confiance (CAITE) . Cette approche combine deux concepts très différents en propriété intellectuelle : les licences copyleft e patent troll.

Copier les licences laissées

Licences copyleft vous permettent d'utiliser, de réutiliser ou de modifier facilement du contenu selon les termes d'une licence, comme un logiciel open source. Modèle CAITE utiliser des licences copyleft exiger des utilisateurs d'IA qu'ils suivent des directives éthiques spécifiques, telles que des évaluations transparentes de l'impact des préjugés.

Dans notre modèle, ces licences transfèrent également le droit légal d'appliquer les violations de licence à un tiers de confiance. Cela crée une entité d'application qui existe uniquement pour faire respecter les normes éthiques de l'IA et peut être financée en partie par des amendes pour conduite contraire à l'éthique. Cette entité est comme un patent troll car il est privé plutôt que gouvernemental et se soutient lui-même en faisant respecter les droits de propriété intellectuelle légaux qu'il collecte auprès des autres. Dans ce cas, plutôt que de rechercher un profit, l’entité applique des directives éthiques. definite en licences.

Ce modèle est flexible et adaptable pour répondre aux besoins d'un environnement d'IA en constante évolution. Il permet également des options d'application substantielles comme un régulateur gouvernemental traditionnel. De cette façon, il combine les meilleurs éléments des approches de droit dur et souple pour relever les défis uniques de l'IA.

Quatre questions clés à se poser

John Villasenor, professeur de génie électrique, de droit, de politique publique et de gestion, Université de Californie, Los Angeles

Les des progrès récents extraordinaires dans les grands langages, l'IA générative basée sur des modèles stimule la demande de création d'une nouvelle réglementation spécifique à l'IA. Voici quatre questions clés à vous poser :

1) Une nouvelle réglementation spécifique à l'IA est-elle nécessaire ? 

Bon nombre des résultats potentiellement problématiques des systèmes d'IA sont déjà pris en compte par les cadres existants. Si un algorithme d'IA utilisé par une banque pour évaluer les demandes de prêt conduisait à des décisions de prêt discriminatoires sur le plan racial, cela violerait la loi sur le logement équitable.Si le logiciel d'IA dans une voiture sans conducteur provoque un accident, la loi sur la responsabilité du fait des produits prévoit une cadre de recours .

2) Quels sont les risques de réglementer une technologie en évolution rapide sur la base d'un instantané de temps ? 

Un exemple classique en est le Stocké loi sur les communications , qui a été promulguée en 1986 pour aborder les technologies de communication numérique alors innovantes telles que le courrier électronique. En promulguant la SCA, le Congrès a fourni beaucoup moins de protection de la vie privée pour les e-mails datant de plus de 180 jours.

Le raisonnement était que le stockage limité signifiait que les gens nettoyaient constamment leurs boîtes de réception en supprimant les anciens messages pour faire de la place aux nouveaux. Par conséquent, les messages archivés pendant plus de 180 jours ont été jugés moins importants du point de vue de la confidentialité. On ne sait pas si cette logique a jamais eu un sens, et cela n'a certainement pas de sens dans les années 20, lorsque la plupart de nos e-mails et autres communications numériques archivées datent de plus de six mois.

Une réponse courante aux préoccupations concernant la réglementation de la technologie basée sur un seul instantané au fil du temps est la suivante : si une loi ou un règlement devient obsolète, mettez-le à jour. C'est plus facile à dire qu'à faire. La plupart des gens conviennent que SCA est devenu obsolète il y a des décennies. Mais parce que le Congrès n'a pas été en mesure de s'entendre spécifiquement sur la façon de réviser la disposition de 180 jours, elle est toujours dans les livres plus d'un tiers de siècle après sa promulgation.

3) Quelles sont les conséquences involontaires potentielles ? 

Il Autoriser les États et les victimes à lutter contre la loi de 2017 sur le trafic sexuel en ligne c'est une loi votée en 2018 qu'il a révisée Article 230 de la Communications Decency Act dans le but de lutter contre le trafic sexuel. Bien qu'il y ait peu de preuves qu'il ait réduit le trafic sexuel, il a eu un impact extrêmement problématique sur un autre groupe de personnes : les travailleuses du sexe qui s'appuyaient sur des sites Web mis hors ligne par FOSTA-SESTA pour échanger des informations sur des clients dangereux. Cet exemple montre l'importance d'avoir une vue d'ensemble des effets potentiels des réglementations proposées.

4) Quelles sont les implications économiques et géopolitiques ? 

Si les régulateurs aux États-Unis prennent des mesures pour ralentir intentionnellement les progrès de l'IA, cela ne fera que pousser l'investissement et l'innovation - et la création d'emplois qui en résulte - ailleurs. Bien que l'IA émergente suscite de nombreuses inquiétudes, elle promet également d'apporter d'énormes avantages dans des domaines tels que éducation , médecine , production , la sécurité des transports , agriculture , météorologie prévisionnelle , accès aux services juridiques et plus.

Je pense que les réglementations sur l'IA rédigées en tenant compte des quatre questions ci-dessus seront plus susceptibles de traiter avec succès les méfaits potentiels de l'IA tout en garantissant l'accès à ses avantages.

Cet article est librement extrait de The Conversation, une organisation de presse indépendante à but non lucratif dédiée au partage des connaissances des experts universitaires.

Lectures connexes

BlogInnovazione.it

Bulletin d'innovation
Ne manquez pas les nouvelles les plus importantes sur l'innovation. Inscrivez-vous pour les recevoir par email.

Articles récents

Les avantages des pages à colorier pour les enfants - un monde de magie pour tous les âges

Développer la motricité fine grâce au coloriage prépare les enfants à des compétences plus complexes comme l’écriture. Colorier…

2 mai 2024

L’avenir est là : comment le secteur du transport maritime révolutionne l’économie mondiale

Le secteur naval est une véritable puissance économique mondiale, qui a navigué vers un marché de 150 milliards...

1 mai 2024

Les éditeurs et OpenAI signent des accords pour réguler les flux d'informations traitées par l'intelligence artificielle

Lundi dernier, le Financial Times a annoncé un accord avec OpenAI. FT autorise son journalisme de classe mondiale…

30 avril 2024

Paiements en ligne : voici comment les services de streaming vous font payer pour toujours

Des millions de personnes paient pour des services de streaming en payant des frais d’abonnement mensuels. Il est communément admis que vous…

29 avril 2024