Articles

OpenAI et règles de protection des données de l'UE, après l'Italie, d'autres restrictions à venir

OpenAI a réussi à répondre positivement aux autorités italiennes de données et lever l'interdiction effective du pays sur ChatGPT la semaine dernière, mais son combat contre les régulateurs européens est loin d'être terminé. 

Temps de lecture estimé : 9 minuti

Début 2023, le chatbot populaire et controversé ChatGPT d'OpenAI s'est heurté à un problème juridique majeur : une interdiction effective en Italie. L'autorité italienne de protection des données (GPDP) a accusé OpenAI de violer les règles de protection des données de l'UE, et la société a accepté de restreindre l'accès au service en Italie alors qu'elle tente de résoudre le problème. Le 28 avril, ChatGPT est revenu dans le pays, OpenAI répondant légèrement aux préoccupations du GPDP sans apporter de modifications majeures à son service – une victoire apparente.

Répondre Garant de la confidentialité italien

Le GPDP a affirmé pour "accueillir" les modifications apportées par ChatGPT. Cependant, les problèmes juridiques de l'entreprise – et ceux des entreprises qui construisent des chatbots similaires – ne font probablement que commencer. Les régulateurs de plusieurs pays étudient comment ces outils d'IA collectent et produisent des informations, citant une série de préoccupations allant des entreprises qui collectent des données de formation sans licence à la tendance des chatbots à diffuser de la désinformation. 

Union européenne et RGPD

Dans l'UE, ils appliquent le Règlement général sur la protection des données (RGPD), l'un des cadres juridiques les plus solides au monde en matière de protection de la vie privée, dont les effets se feront probablement sentir également en dehors de l'Europe. Pendant ce temps, les législateurs européens travaillent sur une loi qui traitera spécifiquement de l'intelligence artificielle, inaugurant probablement une nouvelle ère de réglementation pour des systèmes comme ChatGPT. 

Popularité de ChatGPT

ChatGPT est l'un des exemples les plus populaires d'IA générative, un terme générique qui couvre les outils qui produisent du texte, des images, de la vidéo et de l'audio en fonction des demandes des utilisateurs. Le service serait devenu l'un des applications grand public à la croissance la plus rapide dans l'histoire après avoir atteint 100 millions d'utilisateurs actifs mensuels en seulement deux mois après son lancement en novembre 2022 (OpenAI n'a jamais confirmé ces chiffres). 

Les gens l'utilisent pour traduire du texte dans différentes langues, écrire essais universitaires et générer du code. Mais les critiques, y compris les régulateurs, ont souligné la sortie peu fiable de ChatGPT, les problèmes de droit d'auteur déroutants et les pratiques louches en matière de protection des données.

L'Italie a été le premier pays à déménager. Le 31 mars, il a souligné quatre façons dont il pensait qu'OpenAI violait le RGPD :

  • permettre à ChatGPT de fournir des informations inexactes ou trompeuses,
  • ne pas informer les utilisateurs de ses pratiques de collecte de données,
  • répondre à l'une des six justifications légales possibles pour le traitement des données personnel e
  • n'empêchent pas suffisamment les enfants de moins de 13 ans d'utiliser le Service. 

Europe et hors Europe

Aucun autre pays n'a pris une telle mesure. Mais depuis mars, au moins trois pays de l'UE - Allemagne , France e Espagne – ont lancé leur propre enquête sur ChatGPT. 

Pendant ce temps, de l'autre côté de l'Atlantique, Canada évalue les problèmes de confidentialité en vertu de sa Loi sur la protection des renseignements personnels et les documents électroniques, ou LPRPDE. Le comité européen de la protection des données (EDPB) a même créé un groupe de travail dédié aider à coordonner l'enquête. Et si ces agences demandent des modifications à OpenAI, elles pourraient affecter le fonctionnement du service pour les utilisateurs du monde entier. 

Les préoccupations des régulateurs peuvent être globalement divisées en deux catégories :

  • d'où proviennent les données d'entraînement ChatGPT e
  • comment OpenAI fournit des informations à ses utilisateurs.

ChatGPT utilise les grands modèles de langage (LLM) GPT-3.5 et GPT-4 d'OpenAI, qui sont formés sur de grandes quantités de texte produit par l'homme. OpenAI est prudent quant au texte de formation qu'il utilise, mais dit qu'il s'appuie sur "une variété de sources de données accessibles au public, créées et sous licence, qui peuvent inclure des informations personnelles accessibles au public".

Consentement explicite

Cela pose potentiellement d'énormes problèmes dans le cadre du RGPD. La loi a été promulguée en 2018 et couvre tous les services qui collectent ou traitent les données des citoyens de l'UE, quel que soit le lieu d'implantation de l'organisation responsable. Les règles du RGPD exigent que les entreprises aient un consentement explicite avant de collecter des données personnelles, qu'elles aient une justification légale de la raison pour laquelle elles sont collectées et qu'elles soient transparentes sur la manière dont elles sont utilisées et stockées.

Bulletin d'innovation
Ne manquez pas les nouvelles les plus importantes sur l'innovation. Inscrivez-vous pour les recevoir par email.

Les régulateurs européens affirment que le secret des données de formation d'OpenAI signifie qu'il n'y a aucun moyen de confirmer si les informations personnelles saisies ont été initialement fournies avec le consentement de l'utilisateur, et le GPDP a spécifiquement fait valoir qu'OpenAI n'avait "aucune base légale" pour les collecter en premier lieu. Jusqu'à présent, OpenAI et d'autres se sont échappés avec peu d'examen, mais cette déclaration ajoute un gros point d'interrogation aux futurs efforts de grattage des données.

Droit à l'oubli

Ensuite, il y a le " droit d'être oublié » du GDPR, qui permet aux utilisateurs de demander aux entreprises de corriger leurs informations personnelles ou de les supprimer complètement. Ouvrir l'IA a précédemment mis à jour sa politique de confidentialité pour faciliter de telles demandes, mais oui c'est discuté s'il est techniquement possible de les gérer, compte tenu de la complexité qu'il peut y avoir à séparer données spécifiques une fois qu'ils ont été mis dans ces grands modèles de langage.

OpenAI collecte également des informations directement auprès des utilisateurs. Comme toute plateforme internet, elle collecte une jeu de données utilisateur standard (par exemple, nom, coordonnées, détails de la carte, etc.). Mais plus important encore, il enregistre les interactions des utilisateurs avec ChatGPT. Comme, comment indiqué dans une FAQ , ces données peuvent être examinées par les employés d'OpenAI et sont utilisées pour former les futures versions de son modèle. Compte tenu des questions intimes que les gens posent à ChatGPT, en utilisant le bot en tant que thérapeute ou médecin, cela signifie que l'entreprise collecte toutes sortes de données sensibles.

Au moins certaines de ces données peuvent avoir été collectées auprès d'enfants, car si la politique d'OpenAI stipule qu'elle "ne collecte pas sciemment des informations personnelles sur des enfants de moins de 13 ans", il n'y a pas de contrôle strict de l'âge. Cela ne cadre pas bien avec les règles de l'UE, qui interdisent la collecte de données auprès de personnes de moins de 13 ans et (dans certains pays) exigent le consentement parental pour les enfants de moins de 16 ans. Du côté des résultats, le GPDP a déclaré que le manque de filtres d'âge de ChatGPT expose les mineurs a "des réponses absolument insuffisantes par rapport à leur degré de développement et de conscience de soi". 

Fausse information

Aussi la propension de ChatGPT à fournir de fausses informations peut être un problème. Les réglementations du RGPD stipulent que toutes les données personnelles doivent être exactes, ce que le RGPD a souligné dans son annonce. Selon comment ça vient definite, pourrait causer des problèmes à la plupart des générateurs de texte AI, qui sont sujets à " hallucinations «                                                     » Cela a déjà eu des répercussions dans le monde réel ailleurs, comme l'a fait un maire régional australien menacé de poursuivre OpenAI pour diffamation après que ChatGPT a faussement affirmé qu'il avait purgé une peine de prison pour corruption.

La popularité de ChatGPT et sa domination actuelle sur le marché de l'IA en font une cible particulièrement attrayante, mais il n'y a aucune raison pour que ses concurrents et contributeurs, tels que Google avec Bard ou Microsoft avec son Azure AI basé sur OpenAI, ne soient pas examinés. Avant ChatGPT, l'Italie avait interdit la plateforme de chatbot Replika pour la collecte d'informations sur les mineurs et reste jusqu'à présent interdite. 

Bien que le RGPD soit un puissant ensemble de lois, il n'a pas été créé pour résoudre des problèmes spécifiques d'IA. Des règles qui , cependant, ils peuvent être à l'horizon. 

Loi sur l'intelligence artificielle

En 2021, l'UE a présenté son premier projet deLoi sur l'intelligence artificielle (AIA) , une législation qui fonctionnera avec le RGPD. La loi réglemente les outils d'IA en fonction de leur risque perçu, de "minimal" (des choses comme les filtres anti-spam) à "élevé" (outils d'IA pour l'application de la loi ou l'éducation) ou "inacceptable" et donc interdit (comme un système de crédit social). Après l'explosion de grands modèles de langage comme ChatGPT l'année dernière, les législateurs se précipitent maintenant pour ajouter des règles pour les «modèles de base» et les «systèmes d'intelligence artificielle à usage général (GPAI)» – deux termes pour les systèmes d'intelligence à l'échelle artificielle, y compris LLM – et potentiellement classer comme prestations à haut risque.

Législateurs de l'UE sont parvenus à un accord de principe sur la loi sur l'IA le 27 avril. Une commission votera sur le projet le 11 mai, et la proposition finale est attendue à la mi-juin. Par conséquent, le Conseil européen, le Parlement et la Commission devront résoudre tous les litiges restants avant d'appliquer la loi. Si tout se passe bien, il pourrait être adopté d'ici le second semestre 2024, un peu en retard sur l'objectif officiel des élections européennes de mai 2024.

OpenAI a encore des objectifs à atteindre. Il y a jusqu'au 30 septembre pour créer une limite d'âge plus stricte pour empêcher les moins de 13 ans d'entrer et exiger le consentement parental pour les adolescents mineurs plus âgés. En cas d'échec, il se peut qu'il soit à nouveau bloqué. Mais cela a fourni un exemple de ce que l'Europe considère comme un comportement acceptable pour une entreprise d'IA, du moins jusqu'à ce que de nouvelles lois soient adoptées.

Lectures connexes

Ercole Palmeri

Bulletin d'innovation
Ne manquez pas les nouvelles les plus importantes sur l'innovation. Inscrivez-vous pour les recevoir par email.

Articles récents

Intervention innovante en réalité augmentée, avec une visionneuse Apple à la polyclinique de Catane

Une opération d'ophtalmoplastie à l'aide de la visionneuse commerciale Apple Vision Pro a été réalisée à la polyclinique de Catane…

3 mai 2024

Les avantages des pages à colorier pour les enfants - un monde de magie pour tous les âges

Développer la motricité fine grâce au coloriage prépare les enfants à des compétences plus complexes comme l’écriture. Colorier…

2 mai 2024

L’avenir est là : comment le secteur du transport maritime révolutionne l’économie mondiale

Le secteur naval est une véritable puissance économique mondiale, qui a navigué vers un marché de 150 milliards...

1 mai 2024

Les éditeurs et OpenAI signent des accords pour réguler les flux d'informations traitées par l'intelligence artificielle

Lundi dernier, le Financial Times a annoncé un accord avec OpenAI. FT autorise son journalisme de classe mondiale…

30 avril 2024