Статті

Правила захисту даних OpenAI та ЄС, після Італії з’являться додаткові обмеження

OpenAI вдалося позитивно відповісти італійським органам управління даними скасувати діючу заборону в країні на ChatGPT минулого тижня, але його боротьба з європейськими регуляторами далека від завершення. 

Приблизний час читання: 9 хвилин

На початку 2023 року популярний і суперечливий чат-бот OpenAI ChatGPT зіткнувся з серйозною юридичною проблемою: фактична заборона в Італії. Управління захисту даних Італії (GPDP) звинуватило OpenAI у порушенні правил захисту даних ЄС, і компанія погодилася обмежити доступ до сервісу в Італії, намагаючись вирішити проблему. 28 квітня ChatGPT повернувся в країну, а OpenAI легко вирішив проблеми GPDP, не вносячи жодних суттєвих змін у свій сервіс – очевидна перемога.

Відповідь італійському гаранту конфіденційності

GPDP підтвердив щоб «вітати» зміни, внесені ChatGPT. Проте юридичні проблеми компанії — і тих компаній, що створюють подібні чат-боти — ймовірно, тільки починаються. Регулятори в кількох країнах досліджують, як ці інструменти ШІ збирають і виробляють інформацію, посилаючись на низку занепокоєнь від компаній, які збирають неліцензійні навчальні дані, до тенденції чат-ботів поширювати дезінформацію. 

Європейський Союз і GDPR

У ЄС вони впроваджують Загальний регламент захисту даних (GDPR), одну з найнадійніших законодавчих основ конфіденційності у світі, наслідки якої, ймовірно, відчуються й за межами Європи. Тим часом європейські законодавці працюють над законом, який конкретно стосуватиметься штучного інтелекту, імовірно, розпочне нову еру регулювання для таких систем, як ChatGPT. 

Популярність ChatGPT

ChatGPT є одним із найпопулярніших прикладів генеративного штучного інтелекту, загального терміну, який охоплює інструменти, які створюють текст, зображення, відео та аудіо на основі запитів користувачів. Повідомляється, що сервіс став одним із найшвидше розвиваються споживчі програми в історії після досягнення 100 мільйонів активних користувачів щомісяця лише за два місяці після запуску в листопаді 2022 року (OpenAI ніколи не підтверджував ці цифри). 

Люди використовують його для перекладу текстів різними мовами, пишуть університетські реферати і генерувати код. Але критики, включаючи регулятори, підкреслили ненадійність результатів ChatGPT, заплутані проблеми з авторським правом і тіньову практику захисту даних.

Італія була першою країною, яка переїхала. 31 березня він висвітлив чотири способи, як він вважає, що OpenAI порушує GDPR:

  • дозволити ChatGPT надавати неточну або оманливу інформацію,
  • не інформувати користувачів про свою практику збору даних,
  • відповідати будь-якому з шести можливих юридичних підстав для обробки даних особистий e
  • не обмежує належним чином дітей віком до 13 років у використанні Сервісу. 

Європа і не-Європа

Жодна інша країна не вжила таких заходів. Але з березня принаймні три країни ЄС – Німеччина , Франція e Іспанія – розпочали власне розслідування щодо ChatGPT. 

Тим часом, по інший бік Атлантики, Канада оцінює проблеми конфіденційності відповідно до Закону про захист персональної інформації та електронних документів (PIPEDA). Європейська рада із захисту даних (EDPB) навіть створила таку спеціальної робочої групи щоб допомогти координувати розслідування. І якщо ці агенції вимагатимуть змін в OpenAI, вони можуть вплинути на роботу служби для користувачів у всьому світі. 

Занепокоєння регуляторів можна умовно розділити на дві категорії:

  • звідки беруться навчальні дані ChatGPT e
  • як OpenAI надає інформацію своїм користувачам.

ChatGPT використовує великі мовні моделі (LLM) GPT-3.5 і GPT-4 OpenAI, які навчаються на великих обсягах тексту, створеного людьми. OpenAI обережно ставиться до того, який навчальний текст він використовує, але каже, що спирається на «різноманітність загальнодоступних, створених і ліцензованих джерел даних, які можуть містити загальнодоступну особисту інформацію».

Явна згода

Це потенційно створює величезні проблеми відповідно до GDPR. Закон був прийнятий у 2018 році та охоплює всі служби, які збирають або обробляють дані громадян ЄС, незалежно від того, де розташована відповідальна організація. Правила GDPR вимагають від компаній отримання чіткої згоди перед збором персональних даних, юридичного обґрунтування того, чому вони збираються, і прозорості щодо того, як вони використовуються та зберігаються.

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Європейські регулятори кажуть, що секретність навчальних даних OpenAI означає, що немає способу підтвердити, чи введена особиста інформація була спочатку надана за згодою користувача, і GPDP конкретно стверджував, що OpenAI «не мав правових підстав» для їх збору. Поки що OpenAI та інші обходилися незначною перевіркою, але ця заява ставить великий знак питання до майбутніх зусиль зі збирання даних.

Право бути забутим

Тоді є " право бути забутим ” GDPR, яка дозволяє користувачам вимагати від компаній виправити їх особисту інформацію або повністю її видалити. Відкрити ШІ раніше оновив свою політику конфіденційності щоб полегшити такі запити, але так обговорювати чи можливо технічно ними керувати, враховуючи, наскільки складним може бути розділення конкретні дані як тільки їх помістять у ці великі мовні моделі.

OpenAI також збирає інформацію безпосередньо від користувачів. Як і будь-яка інтернет-платформа, вона збирає a стандартний набір даних користувача (наприклад, ім’я, контактна інформація, дані картки тощо). Але що більш важливо, він реєструє взаємодію користувачів із ChatGPT. як зазначено в FAQ , ці дані можуть переглядатися співробітниками OpenAI і використовуватися для навчання майбутніх версій моделі. Враховуючи інтимні запитання, які люди задають ChatGPT, використовуючи бота як терапевта чи лікаря, це означає, що компанія збирає всілякі конфіденційні дані.

Принаймні деякі з цих даних могли бути зібрані від дітей, оскільки політика OpenAI стверджує, що вона «свідомо не збирає особисту інформацію від дітей віком до 13 років», суворого контролю за віком немає. Це не відповідає правилам ЄС, які забороняють збирати дані від людей віком до 13 років і (у деяких країнах) вимагають згоди батьків для дітей віком до 16 років. З іншого боку, GPDP сказав, що відсутність вікових фільтрів у ChatGPT викриває неповнолітніх a «абсолютно неадекватні відповіді порівняно зі ступенем їх розвитку та самосвідомості». 

Неправдива інформація

Також схильність ChatGPT до надавати неправдиву інформацію може бути проблемою. Норми GDPR передбачають, що всі персональні дані мають бути точними, про що GPDP підкреслила у своєму повідомленні. Залежно від того, як воно надходить defiпізно, може спричинити проблеми для більшості текстових генераторів штучного інтелекту, які схильні до ” галюцинації “: гарний галузевий термін для фактично неправильних або нерелевантних відповідей на запит. Це вже призвело до певних наслідків у реальному світі в інших місцях, як це мав австралійський регіональний мер погрожував подати до суду на OpenAI за наклеп після того, як ChatGPT неправдиво заявив, що він відбував ув'язнення за корупцію.

Популярність ChatGPT і поточне домінування на ринку штучного інтелекту роблять його особливо привабливою мішенню, але немає причин, чому його конкуренти та учасники, такі як Google із Bard або Microsoft із своїм штучним інтелектом Azure на основі OpenAI, не стикаються з пильною увагою. До ChatGPT Італія заборонила платформу чат-ботів Репліка для збору інформації про неповнолітніх і досі залишався забороненим. 

Хоча GDPR є потужним набором законів, він не був створений для вирішення конкретних проблем штучного інтелекту. Правила, які , однак вони можуть бути на горизонті. 

Закон про штучний інтелект

У 2021 році ЄС представив свій перший проектЗакон про штучний інтелект (AIA) , законодавство, яке працюватиме разом із GDPR. Закон регулює інструменти штучного інтелекту на основі їх передбачуваного ризику: від «мінімального» (наприклад, фільтри спаму) до «високого» (інструменти штучного інтелекту для правоохоронних органів або освіти) або «неприйнятного», а отже, забороненого (наприклад, система соціального кредитування). Після вибуху великих мовних моделей, таких як ChatGPT минулого року, законодавці зараз поспішають додати правила для «основних моделей» і «систем штучного інтелекту загального призначення (GPAI)» – два терміни для систем штучного інтелекту, включаючи LLM – і потенційно класифікувати як послуги високого ризику.

законодавці ЄС досягли попередньої згоди щодо Закону про АІ 27 квітня. Комісія проголосує за проект 11 травня, а остаточна пропозиція очікується в середині червня. Тому Європейська Рада, Парламент і Комісія повинні будуть вирішити будь-які спори, що залишилися до виконання закону. Якщо все піде гладко, він може бути прийнятий до другої половини 2024 року, трохи відстаючи від цілі офіційний європейських виборів у травні 2024 року.

У OpenAI ще є цілі, яких потрібно досягти. До 30 вересня можна ввести суворіші вікові обмеження, щоб не допускати дітей до 13 років, і вимагати згоди батьків для старших неповнолітніх. Якщо це не вдається, його можуть знову заблокувати. Але це стало прикладом того, що Європа вважає прийнятною поведінкою для компаній зі штучним інтелектом, принаймні до ухвалення нових законів.

Пов'язані читання

Ercole Palmeri

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Останні статті

Veeam пропонує найповнішу підтримку програм-вимагачів, від захисту до реагування та відновлення

Coveware від Veeam продовжить надавати послуги реагування на інциденти кібервимагання. Coveware запропонує криміналістику та можливості відновлення…

Квітень 23 2024

Зелена та цифрова революція: як прогнозне технічне обслуговування трансформує нафтову та газову промисловість

Прогнозне технічне обслуговування революціонізує нафтогазовий сектор завдяки інноваційному та проактивному підходу до управління заводом.…

Квітень 22 2024

Британський антимонопольний регулятор викликає тривогу BigTech через GenAI

CMA Великобританії випустило попередження щодо поведінки Big Tech на ринку штучного інтелекту. Там…

Квітень 18 2024

Casa Green: енергетична революція для сталого майбутнього в Італії

Указ «Case Green», розроблений Європейським Союзом для підвищення енергоефективності будівель, завершив свій законодавчий процес з…

Квітень 18 2024

Читайте Innovation своєю мовою

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Слідуйте за нами