На початку 2023 року популярний і суперечливий чат-бот OpenAI ChatGPT зіткнувся з серйозною юридичною проблемою: фактична заборона в Італії. Управління захисту даних Італії (GPDP) звинуватило OpenAI у порушенні правил захисту даних ЄС, і компанія погодилася обмежити доступ до сервісу в Італії, намагаючись вирішити проблему. 28 квітня ChatGPT повернувся в країну, а OpenAI легко вирішив проблеми GPDP, не вносячи жодних суттєвих змін у свій сервіс – очевидна перемога.
GPDP підтвердив щоб «вітати» зміни, внесені ChatGPT. Проте юридичні проблеми компанії — і тих компаній, що створюють подібні чат-боти — ймовірно, тільки починаються. Регулятори в кількох країнах досліджують, як ці інструменти ШІ збирають і виробляють інформацію, посилаючись на низку занепокоєнь від компаній, які збирають неліцензійні навчальні дані, до тенденції чат-ботів поширювати дезінформацію.
У ЄС вони впроваджують Загальний регламент захисту даних (GDPR), одну з найнадійніших законодавчих основ конфіденційності у світі, наслідки якої, ймовірно, відчуються й за межами Європи. Тим часом європейські законодавці працюють над законом, який конкретно стосуватиметься штучного інтелекту, імовірно, розпочне нову еру регулювання для таких систем, як ChatGPT.
ChatGPT є одним із найпопулярніших прикладів генеративного штучного інтелекту, загального терміну, який охоплює інструменти, які створюють текст, зображення, відео та аудіо на основі запитів користувачів. Повідомляється, що сервіс став одним із найшвидше розвиваються споживчі програми в історії після досягнення 100 мільйонів активних користувачів щомісяця лише за два місяці після запуску в листопаді 2022 року (OpenAI ніколи не підтверджував ці цифри).
Люди використовують його для перекладу текстів різними мовами, пишуть університетські реферати і генерувати код. Але критики, включаючи регулятори, підкреслили ненадійність результатів ChatGPT, заплутані проблеми з авторським правом і тіньову практику захисту даних.
Італія була першою країною, яка переїхала. 31 березня він висвітлив чотири способи, як він вважає, що OpenAI порушує GDPR:
Жодна інша країна не вжила таких заходів. Але з березня принаймні три країни ЄС – Німеччина , Франція e Іспанія – розпочали власне розслідування щодо ChatGPT.
Тим часом, по інший бік Атлантики, Канада оцінює проблеми конфіденційності відповідно до Закону про захист персональної інформації та електронних документів (PIPEDA). Європейська рада із захисту даних (EDPB) навіть створила таку спеціальної робочої групи щоб допомогти координувати розслідування. І якщо ці агенції вимагатимуть змін в OpenAI, вони можуть вплинути на роботу служби для користувачів у всьому світі.
Занепокоєння регуляторів можна умовно розділити на дві категорії:
ChatGPT використовує великі мовні моделі (LLM) GPT-3.5 і GPT-4 OpenAI, які навчаються на великих обсягах тексту, створеного людьми. OpenAI обережно ставиться до того, який навчальний текст він використовує, але каже, що спирається на «різноманітність загальнодоступних, створених і ліцензованих джерел даних, які можуть містити загальнодоступну особисту інформацію».
Це потенційно створює величезні проблеми відповідно до GDPR. Закон був прийнятий у 2018 році та охоплює всі служби, які збирають або обробляють дані громадян ЄС, незалежно від того, де розташована відповідальна організація. Правила GDPR вимагають від компаній отримання чіткої згоди перед збором персональних даних, юридичного обґрунтування того, чому вони збираються, і прозорості щодо того, як вони використовуються та зберігаються.
Європейські регулятори кажуть, що секретність навчальних даних OpenAI означає, що немає способу підтвердити, чи введена особиста інформація була спочатку надана за згодою користувача, і GPDP конкретно стверджував, що OpenAI «не мав правових підстав» для їх збору. Поки що OpenAI та інші обходилися незначною перевіркою, але ця заява ставить великий знак питання до майбутніх зусиль зі збирання даних.
Тоді є " право бути забутим ” GDPR, яка дозволяє користувачам вимагати від компаній виправити їх особисту інформацію або повністю її видалити. Відкрити ШІ раніше оновив свою політику конфіденційності щоб полегшити такі запити, але так обговорювати чи можливо технічно ними керувати, враховуючи, наскільки складним може бути розділення конкретні дані як тільки їх помістять у ці великі мовні моделі.
OpenAI також збирає інформацію безпосередньо від користувачів. Як і будь-яка інтернет-платформа, вона збирає a стандартний набір даних користувача (наприклад, ім’я, контактна інформація, дані картки тощо). Але що більш важливо, він реєструє взаємодію користувачів із ChatGPT. як зазначено в FAQ , ці дані можуть переглядатися співробітниками OpenAI і використовуватися для навчання майбутніх версій моделі. Враховуючи інтимні запитання, які люди задають ChatGPT, використовуючи бота як терапевта чи лікаря, це означає, що компанія збирає всілякі конфіденційні дані.
Принаймні деякі з цих даних могли бути зібрані від дітей, оскільки політика OpenAI стверджує, що вона «свідомо не збирає особисту інформацію від дітей віком до 13 років», суворого контролю за віком немає. Це не відповідає правилам ЄС, які забороняють збирати дані від людей віком до 13 років і (у деяких країнах) вимагають згоди батьків для дітей віком до 16 років. З іншого боку, GPDP сказав, що відсутність вікових фільтрів у ChatGPT викриває неповнолітніх a «абсолютно неадекватні відповіді порівняно зі ступенем їх розвитку та самосвідомості».
Також схильність ChatGPT до надавати неправдиву інформацію може бути проблемою. Норми GDPR передбачають, що всі персональні дані мають бути точними, про що GPDP підкреслила у своєму повідомленні. Залежно від того, як воно надходить defiпізно, може спричинити проблеми для більшості текстових генераторів штучного інтелекту, які схильні до ” галюцинації “: гарний галузевий термін для фактично неправильних або нерелевантних відповідей на запит. Це вже призвело до певних наслідків у реальному світі в інших місцях, як це мав австралійський регіональний мер погрожував подати до суду на OpenAI за наклеп після того, як ChatGPT неправдиво заявив, що він відбував ув'язнення за корупцію.
Популярність ChatGPT і поточне домінування на ринку штучного інтелекту роблять його особливо привабливою мішенню, але немає причин, чому його конкуренти та учасники, такі як Google із Bard або Microsoft із своїм штучним інтелектом Azure на основі OpenAI, не стикаються з пильною увагою. До ChatGPT Італія заборонила платформу чат-ботів Репліка для збору інформації про неповнолітніх і досі залишався забороненим.
Хоча GDPR є потужним набором законів, він не був створений для вирішення конкретних проблем штучного інтелекту. Правила, які , однак вони можуть бути на горизонті.
У 2021 році ЄС представив свій перший проектЗакон про штучний інтелект (AIA) , законодавство, яке працюватиме разом із GDPR. Закон регулює інструменти штучного інтелекту на основі їх передбачуваного ризику: від «мінімального» (наприклад, фільтри спаму) до «високого» (інструменти штучного інтелекту для правоохоронних органів або освіти) або «неприйнятного», а отже, забороненого (наприклад, система соціального кредитування). Після вибуху великих мовних моделей, таких як ChatGPT минулого року, законодавці зараз поспішають додати правила для «основних моделей» і «систем штучного інтелекту загального призначення (GPAI)» – два терміни для систем штучного інтелекту, включаючи LLM – і потенційно класифікувати як послуги високого ризику.
законодавці ЄС досягли попередньої згоди щодо Закону про АІ 27 квітня. Комісія проголосує за проект 11 травня, а остаточна пропозиція очікується в середині червня. Тому Європейська Рада, Парламент і Комісія повинні будуть вирішити будь-які спори, що залишилися до виконання закону. Якщо все піде гладко, він може бути прийнятий до другої половини 2024 року, трохи відстаючи від цілі офіційний європейських виборів у травні 2024 року.
У OpenAI ще є цілі, яких потрібно досягти. До 30 вересня можна ввести суворіші вікові обмеження, щоб не допускати дітей до 13 років, і вимагати згоди батьків для старших неповнолітніх. Якщо це не вдається, його можуть знову заблокувати. Але це стало прикладом того, що Європа вважає прийнятною поведінкою для компаній зі штучним інтелектом, принаймні до ухвалення нових законів.
Ercole Palmeri
Excel надає широкий спектр статистичних функцій, які виконують обчислення від основного середнього значення, медіани та моди до розподілу…
Зведені таблиці — це метод аналізу електронних таблиць. Вони дозволяють абсолютно новачкові з нульовим досвідом...
Нижче наведено другу й останню статтю цього бюлетеня, присвячену зв’язку між конфіденційністю та авторським правом від…
Проект ACTEA, ENEA та Римський університет Сапієнца розроблятимуть нові кальцієво-іонні акумулятори. Нові кальцієво-іонні акумулятори як альтернатива…
Понад 900 хірургів-ортопедів стопи та гомілковостопного суглоба, передових медичних працівників, лікарів-ортопедів та студентів-медиків відвідали...
Згідно з останнім звітом Protolabs про робототехніку для виробництва, майже третина (32%) респондентів вважають, що в найближчі кілька років...
CNH рішуче прагне розвивати свою технологію, щоб зробити сільське господарство простішим, ефективнішим і стійкішим для своїх…
Стратегічний крок сприятиме швидшому розвитку приватної екосистеми 5G для всіх цифрових пристроїв, повідомляє NTT...
Neuralink, нейротехнологічний стартап, який належить Ілону Маску, нещодавно оголосив, що розпочне набір пацієнтів для свого…
Це перша з двох статей, у яких я розглядаю делікатний зв’язок між конфіденційністю та авторським правом, з одного боку,…