Членове

OpenAI и правилата за защита на данните на ЕС, след Италия предстоят още ограничения

OpenAI успя да отговори положително на италианските органи за данни и премахване на ефективната забрана в страната в ChatGPT миналата седмица, но битката му срещу европейските регулатори далеч не е приключила. 

Очаквано време за четене: 9 Minuti

В началото на 2023 г. популярният и спорен чатбот ChatGPT на OpenAI се натъкна на голям правен проблем: ефективна забрана в Италия. Италианският орган за защита на данните (GPDP) обвини OpenAI в нарушаване на правилата за защита на данните на ЕС и компанията се съгласи да ограничи достъпа до услугата в Италия, докато се опитва да разреши проблема. На 28 април ChatGPT се завърна в страната, като OpenAI леко се справи с проблемите на GPDP, без да прави големи промени в услугата си – очевидна победа.

Отговор на италианския гарант за поверителност

ГПДП потвърди за да „приветстваме“ промените, направени от ChatGPT. Въпреки това правните проблеми на компанията – и тези на компаниите, изграждащи подобни чатботове – вероятно едва започват. Регулаторите в няколко страни проучват как тези AI инструменти събират и произвеждат информация, цитирайки редица опасения от компании, събиращи нелицензирани данни за обучение, до тенденцията на чатботовете да разпространяват дезинформация. 

Европейския съюз и GDPR

В ЕС те прилагат Общия регламент за защита на данните (GDPR), една от най-стабилните правни рамки за поверителност в света, ефектите от която вероятно ще се усетят и извън Европа. Междувременно европейските законодатели работят върху закон, който специално ще се занимава с изкуствения интелект, вероятно поставяйки началото на нова ера на регулиране за системи като ChatGPT. 

Популярност на ChatGPT

ChatGPT е един от най-популярните примери за генеративен AI, общ термин, който обхваща инструменти, които произвеждат текст, изображения, видео и аудио въз основа на потребителски заявки. Съобщава се, че услугата се е превърнала в една от най-бързо развиващите се потребителски приложения в историята, след като достигна 100 милиона активни потребители месечно само за два месеца след стартирането през ноември 2022 г. (OpenAI никога не е потвърждавал тези цифри). 

Хората го използват, за да превеждат текст на различни езици, да пишат университетски есета и генериране на код. Но критиците, включително регулаторите, подчертаха ненадеждния резултат на ChatGPT, объркващи проблеми с авторските права и сенчести практики за защита на данните.

Италия беше първата страна, която се премести. На 31 март той подчерта четири начина, по които смята, че OpenAI нарушава GDPR:

  • позволяват на ChatGPT да предоставя неточна или подвеждаща информация,
  • не информира потребителите за своите практики за събиране на данни,
  • отговарят на някоя от шестте възможни правни обосновки за обработка на данни личностна e
  • не ограничава по подходящ начин деца под 13 години да използват Услугата. 

Европа и не-Европа

Никоя друга държава не е предприела подобни действия. Но от март поне три държави от ЕС – Германия , Франция e Испания – са започнали собствено разследване на ChatGPT. 

Междувременно, от другата страна на Атлантика, Канада оценява опасенията за поверителност съгласно своя Закон за защита на личната информация и електронните документи или PIPEDA. Европейският съвет за защита на данните (EDPB) дори създаде такъв специална работна група да помогне за координиране на разследването. И ако тези агенции поискат промени в OpenAI, те могат да повлияят на начина, по който услугата работи за потребителите по целия свят. 

Загрижеността на регулаторите може да се раздели най-общо на две категории:

  • откъде идват данните за обучение на ChatGPT e
  • как OpenAI предоставя информация на своите потребители.

ChatGPT използва GPT-3.5 и GPT-4 големи езикови модели (LLM) на OpenAI, които се обучават върху големи количества текст, създаден от хора. OpenAI е предпазлив по отношение на това кой точно обучителен текст използва, но казва, че се основава на „разнообразие от публично достъпни, създадени и лицензирани източници на данни, които могат да включват публично достъпна лична информация“.

Изрично съгласие

Това потенциално създава огромни проблеми съгласно GDPR. Законът беше приет през 2018 г. и обхваща всички услуги, които събират или обработват данни на граждани на ЕС, независимо къде се намира отговорната организация. Правилата на GDPR изискват компаниите да имат изрично съгласие, преди да събират лични данни, да имат правна обосновка защо се събират и да бъдат прозрачни за това как се използват и съхраняват.

Иновационен бюлетин
Не пропускайте най-важните новини за иновациите. Регистрирайте се, за да ги получавате по имейл.

Европейските регулатори казват, че поверителността на данните за обучение на OpenAI означава, че няма начин да се потвърди дали въведената лична информация е била първоначално предоставена със съгласието на потребителя, а GPDP изрично твърди, че OpenAI „няма правно основание“ да ги събира на първо място. Досега OpenAI и други се измъкваха с малко внимание, но това твърдение добавя голяма въпросителна към бъдещите усилия за извличане на данни.

Право да бъдеш забравен

След това има " право да бъдеш забравен ” от GDPR, което позволява на потребителите да поискат от компаниите да коригират личната им информация или да я премахнат напълно. Отворете AI е актуализирал преди това своята политика за поверителност за улесняване на такива искания, но да, така е обсъждане дали е технически възможно да се управляват, като се има предвид колко сложно може да бъде разделянето им конкретни данни след като бъдат поставени в тези големи езикови модели.

OpenAI също събира информация директно от потребителите. Като всяка интернет платформа, тя събира a стандартен набор от потребителски данни (напр. име, информация за контакт, данни за карта и т.н.). Но по-важното е, че регистрира взаимодействията на потребителите с ChatGPT. Като посочено в ЧЗВ , тези данни могат да бъдат прегледани от служители на OpenAI и се използват за обучение на бъдещи версии на неговия модел. Предвид интимните въпроси, които хората задават на ChatGPT, използвайки бота като терапевт или лекар, това означава, че компанията събира всякакви чувствителни данни.

Поне част от тези данни може да са били събрани от деца, тъй като докато политиката на OpenAI гласи, че „не събира съзнателно лична информация от деца под 13-годишна възраст“, ​​няма строг възрастов контрол. Това не е в съответствие с правилата на ЕС, които забраняват събирането на данни от хора под 13-годишна възраст и (в някои държави) изискват съгласието на родителите за деца под 16 години. От страна на изхода, GPDP каза, че липсата на възрастови филтри на ChatGPT излага непълнолетни a "абсолютно неадекватни отговори спрямо степента на тяхното развитие и самосъзнание". 

Невярна информация

Също така склонността на ChatGPT към предоставят невярна информация може да е проблем. Регламентите на GDPR предвиждат, че всички лични данни трябва да бъдат точни, нещо, което GPDP подчерта в своето съобщение. В зависимост от това как идва definite, може да създаде проблеми за повечето AI текстови генератори, които са склонни към ” allucinazioni “: Хубав индустриален термин за действително неправилни или неуместни отговори на запитване. Това вече е видяло някои реални последици другаде, както имаше австралийски регионален кмет заплаши да съди OpenAI за клевета след като ChatGPT невярно заяви, че е излежал присъда в затвора за корупция.

Популярността на ChatGPT и текущото господство на пазара на AI го правят особено привлекателна цел, но няма причина неговите конкуренти и сътрудници, като Google с Bard или Microsoft с неговия Azure AI, базиран на OpenAI, да не трябва да се изправят под контрол. Преди ChatGPT Италия забрани платформата за чатбот реплика за събиране на информация за непълнолетни и досега остава забранен. 

Въпреки че GDPR е мощен набор от закони, той не е създаден за справяне с конкретни проблеми с ИИ. Правила, които , те обаче може да са на хоризонта. 

Закон за изкуствения интелект

През 2021 г. ЕС представи първия си проект наЗакон за изкуствения интелект (AIA) , законодателство, което ще работи заедно с GDPR. Законът регулира AI инструментите въз основа на техния възприеман риск, от „минимален“ (неща като спам филтри) до „висок“ (AI инструменти за правоприлагане или образование) или „неприемлив“ и следователно забранен (като социална кредитна система). След експлозията на големи езикови модели като ChatGPT миналата година, законодателите сега се надпреварват да добавят правила за „основни модели“ и „системи с изкуствен интелект с общо предназначение (GPAI)“ – два термина за изкуствен мащаб на системи за интелект, включително LLM – и потенциално класифицирам като услуги с висок риск.

законодателите на ЕС постигнаха предварително споразумение по Закона за изкуствения интелект на 27 април. На 11 май комисия ще гласува проекта, а окончателното предложение се очаква в средата на юни. Следователно Европейският съвет, Парламентът и Комисията ще трябва разрешаване на всички останали спорове преди прилагането на закона. Ако всичко върви гладко, той може да бъде приет до втората половина на 2024 г., малко зад целта официален на европейските избори през май 2024 г.

OpenAI все още има цели за постигане. До 30 септември можете да създадете по-строга възрастова граница, за да не допускате лица под 13 години и да изисквате родителско съгласие за по-големи непълнолетни тийнейджъри. Ако не успее, може да бъде блокиран отново. Но той даде пример за това какво Европа смята за приемливо поведение за компания с ИИ, поне докато не бъдат приети нови закони.

Свързани четения

Ercole Palmeri

Иновационен бюлетин
Не пропускайте най-важните новини за иновациите. Регистрирайте се, за да ги получавате по имейл.

Последни статии

Предимствата на страниците за оцветяване за деца - свят на магия за всички възрасти

Развитието на фини двигателни умения чрез оцветяване подготвя децата за по-сложни умения като писане. Оцветявам…

2 май 2024

Бъдещето е тук: Как корабната индустрия революционизира глобалната икономика

Военноморският сектор е истинска световна икономическа сила, която се е насочила към пазар от 150 милиарда...

1 май 2024

Издателите и OpenAI подписват споразумения за регулиране на потока от информация, обработвана от изкуствения интелект

Миналия понеделник Financial Times обяви сделка с OpenAI. FT лицензира своята журналистика от световна класа...

30 април 2024

Онлайн плащания: Ето как услугите за поточно предаване ви карат да плащате завинаги

Милиони хора плащат за стрийминг услуги, като плащат месечни абонаментни такси. Разпространено е мнението, че вие…

29 април 2024

Прочетете Иновация на вашия език

Иновационен бюлетин
Не пропускайте най-важните новини за иновациите. Регистрирайте се, за да ги получавате по имейл.

Следвайте ни