Artigos

OpenAI e as normas de protección de datos da UE, despois de que Italia virá máis restricións

OpenAI conseguiu responder positivamente ás autoridades italianas de datos e levantar a prohibición efectiva do país en ChatGPT a semana pasada, pero a súa loita contra os reguladores europeos está lonxe de rematar. 

Tempo estimado de lectura: 9 minutos

A principios de 2023, o popular e controvertido chatbot ChatGPT de OpenAI atopouse cun importante problema legal: unha prohibición efectiva en Italia. A Autoridade Italiana de Protección de Datos (GPDP) acusou a OpenAI de violar as normas de protección de datos da UE, e a compañía acordou restrinxir o acceso ao servizo en Italia mentres intenta resolver o problema. O 28 de abril, ChatGPT volveu ao país, con OpenAI abordando lixeiramente as preocupacións do GPDP sen facer ningún cambio importante no seu servizo: unha aparente vitoria.

Responda Garantía de privacidade italiana

O GPDP afirmou para "dar a benvida" aos cambios realizados por ChatGPT. Non obstante, os problemas legais da compañía, e os das empresas que constrúen chatbots similares, probablemente estean comezando. Os reguladores de varios países están investigando como estas ferramentas de IA recollen e producen información, citando unha serie de preocupacións das empresas que recollen datos de formación sen licenza á tendencia dos chatbots a difundir desinformación. 

Unión Europea e GDPR

Na UE están a facer cumprir o Regulamento Xeral de Protección de Datos (GDPR), un dos marcos legais de privacidade máis sólidos do mundo, cuxos efectos probablemente tamén se noten fóra de Europa. Mentres tanto, os lexisladores europeos están a traballar nunha lei que abordará especificamente a intelixencia artificial, probablemente o inicio dunha nova era de regulación para sistemas como ChatGPT. 

Popularidade de ChatGPT

ChatGPT é un dos exemplos máis populares de IA xerativa, un termo xeral que abarca ferramentas que producen texto, imaxes, vídeo e audio en función das solicitudes dos usuarios. Segundo os informes, o servizo converteuse nun dos aplicacións de consumo de máis rápido crecemento na historia despois de acadar os 100 millóns de usuarios activos mensuais en só dous meses despois do lanzamento en novembro de 2022 (OpenAI nunca confirmou estas cifras). 

A xente utilízao para traducir texto a diferentes idiomas, escribir ensaios universitarios e xerar código. Pero os críticos, incluídos os reguladores, destacaron a saída pouco fiable de ChatGPT, os problemas de copyright confusos e as prácticas de protección de datos turbias.

Italia foi o primeiro país en moverse. O 31 de marzo, destacou catro formas nas que cría que OpenAI violaba o GDPR:

  • permitir que ChatGPT proporcione información inexacta ou enganosa,
  • non informar aos usuarios das súas prácticas de recollida de datos,
  • cumprir algunha das seis xustificacións legais posibles para o tratamento de datos persoal e
  • non restrinxir adecuadamente aos nenos menores de 13 anos o uso do Servizo. 

Europa e non Europa

Ningún outro país tomou tal acción. Pero desde marzo, polo menos tres países da UE: Alemaña , Francia e España - lanzaron a súa propia investigación sobre ChatGPT. 

Mentres, ao outro lado do Atlántico, Canadá está avaliando problemas de privacidade en virtude da súa Lei de protección de información persoal e documentos electrónicos ou PIPEDA. O Consello Europeo de Protección de Datos (EDPB) incluso creou un grupo de traballo dedicado para axudar a coordinar a investigación. E se estas axencias solicitan cambios en OpenAI, poderían afectar o funcionamento do servizo para os usuarios de todo o mundo. 

As preocupacións dos reguladores pódense dividir en liñas xerais en dúas categorías:

  • de onde proceden os datos de adestramento de ChatGPT e
  • como OpenAI proporciona información aos seus usuarios.

ChatGPT usa os modelos de linguaxe grande (LLM) GPT-3.5 e GPT-4 de OpenAI, que se adestran en grandes cantidades de texto producido por humanos. OpenAI é cauteloso acerca do texto de adestramento que usa exactamente, pero di que se basea nunha variedade de fontes de datos con licenza, creadas e dispoñibles publicamente, que poden incluír información persoal dispoñible publicamente.

Consentimento explícito

Isto pode xerar enormes problemas baixo o GDPR. A lei promulgouse en 2018 e abrangue todos os servizos que recollen ou procesan datos dos cidadáns da UE, independentemente de onde estea a sede da organización responsable. As regras do GDPR esixen que as empresas teñan o consentimento explícito antes de recoller datos persoais, que teñan unha xustificación legal sobre o motivo polo que se recollen e que sexan transparentes sobre como se usan e almacenan.

Boletín de innovación
Non te perdas as novidades máis importantes sobre innovación. Rexístrese para recibilos por correo electrónico.

Os reguladores europeos din que o segredo dos datos de formación de OpenAI significa que non hai forma de confirmar se a información persoal introducida foi proporcionada inicialmente co consentimento do usuario, e o GPDP argumentou especificamente que OpenAI non tiña "ningunha base legal" para recollelas en primeiro lugar. Ata agora OpenAI e outros saíron con pouco escrutinio, pero esta declaración engade un gran signo de interrogación aos futuros esforzos de raspado de datos.

Dereito a ser esquecido

Despois está o " dereito a ser esquecido ” do GDPR, que permite aos usuarios solicitar ás empresas que corrixan a súa información persoal ou que a eliminen por completo. Abrir AI actualizou previamente a súa política de privacidade para facilitar este tipo de solicitudes, pero si que o é discuto se técnicamente é posible xestionalos, dado o complexo que pode ser separalos datos específicos unha vez que se incorporaron a estes grandes modelos lingüísticos.

OpenAI tamén recolle información directamente dos usuarios. Como calquera plataforma de internet, recolle a conxunto de datos de usuario estándar (por exemplo, nome, información de contacto, datos da tarxeta, etc.). Pero o máis significativo é que rexistra as interaccións que os usuarios teñen con ChatGPT. Como indicado nunha FAQ , estes datos poden ser revisados ​​polos empregados de OpenAI e utilízanse para adestrar futuras versións do seu modelo. Dadas as preguntas íntimas que a xente fai a ChatGPT, usando o bot como terapeuta ou médico, isto significa que a empresa está a recompilar todo tipo de datos sensibles.

Polo menos algúns destes datos poden ter sido recollidos de nenos, xa que aínda que a política de OpenAI establece que "non recolle a sabiendas información persoal de nenos menores de 13 anos", non hai un estrito control de idade. Isto non funciona ben coas normas da UE, que prohiben a recollida de datos de persoas menores de 13 anos e (nalgúns países) requiren o consentimento dos pais para os menores de 16 anos. No lado da saída, o GPDP dixo que a falta de filtros de idade de ChatGPT expón aos menores a "respostas absolutamente inadecuadas en comparación co seu grao de desenvolvemento e autoconciencia". 

Información falsa

Tamén a propensión de ChatGPT a proporcionar información falsa pode ser un problema. A normativa do GDPR establece que todos os datos persoais deben ser precisos, algo que o GPDP destacou no seu anuncio. Dependendo de como veña defia noite, podería provocar problemas para a maioría dos xeradores de texto AI, que son propensos a " alucinazioni “: Un bo termo da industria para respostas realmente incorrectas ou irrelevantes a unha consulta. Isto xa tivo repercusións no mundo real noutros lugares, como ten un alcalde rexional australiano ameazou con demandar a OpenAI por difamación despois de que ChatGPT afirmase falsamente que cumpriu unha condena de prisión por corrupción.

A popularidade de ChatGPT e o dominio actual do mercado da intelixencia artificial convérteno nun obxectivo especialmente atractivo, pero non hai razón pola que os seus competidores e colaboradores, como Google con Bard ou Microsoft coa súa IA Azure baseada en OpenAI, non se enfronten ao escrutinio. Antes de ChatGPT, Italia prohibiu a plataforma chatbot Replika para a recollida de información sobre menores e ata agora permaneceu prohibida. 

Aínda que o GDPR é un poderoso conxunto de leis, non foi creado para tratar problemas específicos de IA. Regras que , con todo, poden estar no horizonte. 

Lei de Intelixencia Artificial

En 2021, a UE presentou o seu primeiro borradorLei de Intelixencia Artificial (AIA) , lexislación que colaborará co GDPR. A lei regula as ferramentas de IA en función do risco percibido, desde "mínimo" (como os filtros de spam) ata "alto" (ferramentas de IA para a aplicación da lei ou a educación) ou "inaceptable" e, polo tanto, prohibido (como un sistema de crédito social). Despois da explosión de grandes modelos lingüísticos como ChatGPT o ano pasado, os lexisladores agora están a correr para engadir regras para "modelos básicos" e "sistemas de intelixencia artificial de propósito xeral (GPAI)" -dous termos para sistemas de intelixencia a escala artificial, incluíndo LLM- e potencialmente. clasificar como servizos de alto risco.

lexisladores da UE chegaron a un acordo provisional sobre a Lei de IA o 27 de abril. Unha comisión votará o borrador o 11 de maio e a proposta final está prevista para mediados de xuño. Polo tanto, o Consello Europeo, o Parlamento e a Comisión terán que facelo resolver calquera disputa restante antes de aplicar a lei. Se todo vai ben, podería adoptarse para o segundo semestre de 2024, un pouco por detrás do obxectivo Oficial das eleccións europeas de maio de 2024.

OpenAI aínda ten obxectivos que acadar. Hai ata o 30 de setembro para crear un límite de idade máis estrito para evitar que os menores de 13 anos non sexan e esixir o consentimento dos pais para os adolescentes menores de idade. Se falla, é posible que se bloquee de novo. Pero proporcionou un exemplo do que Europa considera un comportamento aceptable para unha empresa de IA, polo menos ata que se aproben novas leis.

Lecturas relacionadas

Ercole Palmeri

Boletín de innovación
Non te perdas as novidades máis importantes sobre innovación. Rexístrese para recibilos por correo electrónico.

Artigos recentes

Editores e OpenAI asinan acordos para regular o fluxo de información procesada pola Intelixencia Artificial

O pasado luns, o Financial Times anunciou un acordo con OpenAI. FT licencia o seu xornalismo de clase mundial...

Abril 30 2024

Pagos en liña: aquí tes como os servizos de streaming che fan pagar para sempre

Millóns de persoas pagan por servizos de streaming, pagando taxas de subscrición mensuais. É unha opinión común que vostede...

Abril 29 2024

Veeam ofrece o soporte máis completo para ransomware, desde a protección ata a resposta e a recuperación

Coveware by Veeam continuará ofrecendo servizos de resposta a incidentes de extorsión cibernética. Coveware ofrecerá capacidades forenses e de remediación...

Abril 23 2024

Revolución verde e dixital: como o mantemento preditivo está a transformar a industria do petróleo e do gas

O mantemento preditivo está a revolucionar o sector do petróleo e do gas, cun enfoque innovador e proactivo para a xestión das plantas...

Abril 22 2024