Artigos

Italia bloqueou ChatGPT. Os Estados Unidos poderían ser os seguintes?

A decisión de bloquear temporalmente o chatGPT en Italia, instando a openAI a limitar o procesamento dos datos dos usuarios italianos, tomouse tras unha violación de datos en marzo que expuxo conversas de usuarios italianos de ChatGPT e outra información sensible.

Modelos xerativos de IA  , como Chat GPT de OpenAI, recollen datos para perfeccionar e adestrar aínda máis os seus modelos. Italia ve esta recollida de datos como unha posible violación da privacidade dos usuarios e, como resultado, prohibiu ChatGPT no país. 

O venres, o Garante para a protección de datos persoais difundiu a comunicado que impón unha limitación temporal inmediata ao tratamento dos datos dos usuarios italianos por parte de OpenAI. 

Motivos da decisión

Segundo o comunicado, as dúas principais preocupacións que pretende abordar a prohibición son a recollida non autorizada de datos de usuarios e a falta de verificación da idade, que expón aos nenos a respostas "totalmente inadecuadas para a súa idade e conciencia". 

En canto á recollida de datos, as autoridades din que a OpenAI non ten permiso legal para recoller datos dos usuarios. 

"Non parece haber ningunha base legal detrás da recollida e procesamento masivo de datos persoais para 'adestrar' os algoritmos nos que se basea a plataforma", dixo a Autoridade de Protección de Datos Persoais no comunicado. 

O representante designado de OpenAI no Espazo Económico Europeo ten 20 días para cumprir a orde, se non, a empresa de investigación de AI podería enfrontarse a unha multa de ata 20 millóns de euros ou o 4% da facturación anual total mundial. 

Violación de OpenAI

A decisión tomouse seguindo a a violación de datos produciuse o 20 de marzo , que expuxo conversas dos usuarios de ChatGPT e información de pago dos subscritores. 

Boletín de innovación
Non te perdas as novidades máis importantes sobre innovación. Rexístrese para recibilos por correo electrónico.

Este incumprimento destacou os riscos potenciais do uso de ferramentas de IA que aínda están en investigación pero aínda están dispoñibles para o uso público. 

Nos Estados Unidos?

Os líderes tecnolóxicos dos EE. UU. xa comezaron a pedir a prohibición temporal do desenvolvemento da IA.

A principios desta semana, o CEO de Tesla, Elon Musk, o cofundador de Apple, Steve Wozniak, e o CEO de Stability AI, Emad Mostaque, estaban entre os líderes tecnolóxicos que asinaron unha petición. O documento pediu aos laboratorios de IA que deteñan, polo menos durante seis meses, a formación de sistemas de IA máis potentes que o GPT-4. 

Do mesmo xeito que a prohibición de Italia, a ruptura que insta a petición ten por obxecto protexer á sociedade dos "profundos riscos para a sociedade e a humanidade" que poden provocar os sistemas de intelixencia artificial con intelixencia competitiva humana.

Ercole Palmeri

Tamén pode estar interesado

Boletín de innovación
Non te perdas as novidades máis importantes sobre innovación. Rexístrese para recibilos por correo electrónico.

Artigos recentes

Editores e OpenAI asinan acordos para regular o fluxo de información procesada pola Intelixencia Artificial

O pasado luns, o Financial Times anunciou un acordo con OpenAI. FT licencia o seu xornalismo de clase mundial...

Abril 30 2024

Pagos en liña: aquí tes como os servizos de streaming che fan pagar para sempre

Millóns de persoas pagan por servizos de streaming, pagando taxas de subscrición mensuais. É unha opinión común que vostede...

Abril 29 2024

Veeam ofrece o soporte máis completo para ransomware, desde a protección ata a resposta e a recuperación

Coveware by Veeam continuará ofrecendo servizos de resposta a incidentes de extorsión cibernética. Coveware ofrecerá capacidades forenses e de remediación...

Abril 23 2024

Revolución verde e dixital: como o mantemento preditivo está a transformar a industria do petróleo e do gas

O mantemento preditivo está a revolucionar o sector do petróleo e do gas, cun enfoque innovador e proactivo para a xestión das plantas...

Abril 22 2024