Артыкулы

OpenAI і правілы абароны даных ЕС, пасля Італіі яшчэ больш абмежаванняў

OpenAI здолеў станоўча адказаць італьянскім уладам дадзеных і адмяніць дзейную забарону ў краіне на ChatGPT на мінулым тыдні, але яго барацьба з еўрапейскімі рэгулятарамі яшчэ далёкая ад завяршэння. 

Разліковы час чытання: 9 хвілін

У пачатку 2023 года папулярны і супярэчлівы чат-бот OpenAI ChatGPT сутыкнуўся з сур'ёзнай юрыдычнай праблемай: фактычная забарона ў Італіі. Упраўленне па абароне даных Італіі (GPDP) абвінаваціла OpenAI у парушэнні правілаў абароны даных ЕС, і кампанія пагадзілася абмежаваць доступ да сэрвісу ў Італіі, спрабуючы вырашыць праблему. 28 красавіка ChatGPT вярнуўся ў краіну, а OpenAI лёгка вырашыў праблемы GPDP, не ўносячы сур'ёзных змяненняў у свой сэрвіс - відавочная перамога.

Адказ Італьянскі гарант прыватнасці

GPDP пацвердзіў каб «вітаць» змены, зробленыя ChatGPT. Тым не менш, юрыдычныя праблемы кампаніі - і тых кампаній, якія ствараюць падобныя чат-боты - верагодна, толькі пачынаюцца. Рэгулюючыя органы ў некалькіх краінах даследуюць, як гэтыя інструменты штучнага інтэлекту збіраюць і вырабляюць інфармацыю, спасылаючыся на шэраг праблем, пачынаючы ад кампаній, якія збіраюць неліцэнзійныя навучальныя даныя, і заканчваючы схільнасцю чат-ботаў распаўсюджваць дэзінфармацыю. 

Еўрапейскі саюз і GDPR

У ЕС яны забяспечваюць выкананне Агульнага рэгламенту аб абароне даных (GDPR), адной з самых надзейных заканадаўчых рамак прыватнасці ў свеце, наступствы якой, верагодна, будуць адчувацца і за межамі Еўропы. Між тым, еўрапейскія заканадаўцы працуюць над законам, які будзе канкрэтна датычыцца штучнага інтэлекту, што, верагодна, адкрые новую эру рэгулявання такіх сістэм, як ChatGPT. 

Папулярнасць ChatGPT

ChatGPT - адзін з самых папулярных прыкладаў генератыўнага штучнага інтэлекту, агульны тэрмін, які ахоплівае інструменты, якія ствараюць тэкст, малюнкі, відэа і аўдыя на аснове запытаў карыстальнікаў. Паведамляецца, што сэрвіс стаў адным з самыя хуткарослыя спажывецкія прыкладанні у гісторыі пасля дасягнення 100 мільёнаў актыўных карыстальнікаў у месяц усяго за два месяцы пасля запуску ў лістападзе 2022 года (OpenAI ніколі не пацвярджаў гэтыя лічбы). 

З яго дапамогай людзі перакладаюць тэксты на розныя мовы, пішуць універсітэцкія рэфераты і згенераваць код. Але крытыкі, у тым ліку рэгулюючыя органы, падкрэсліваюць ненадзейныя вынікі ChatGPT, заблытаныя праблемы з аўтарскім правам і сумныя практыкі абароны даных.

Італія была першай краінай, якая пераехала. 31 сакавіка ён вылучыў чатыры спосабы, як ён лічыць, што OpenAI парушае GDPR:

  • дазволіць ChatGPT прадастаўляць недакладную або зманлівую інфармацыю,
  • не інфармаваць карыстальнікаў аб сваёй практыцы збору даных,
  • адпавядаць любому з шасці магчымых прававых абгрунтаванняў апрацоўкі даных personali e
  • не абмяжоўваць належным чынам дзяцей ва ўзросце да 13 гадоў у выкарыстанні Сэрвісу. 

Еўропа і не-Еўропа

Ніякая іншая краіна не прыняла такіх мер. Але з сакавіка як мінімум тры краіны ЕС - Германія , Францыя e Іспанія – распачалі ўласнае расследаванне ChatGPT. 

Тым часам, на другім баку Атлантыкі, Канада ацэньвае праблемы прыватнасці ў адпаведнасці з Законам аб абароне асабістай інфармацыі і электронных дакументах або PIPEDA. Еўрапейскі савет па абароне даных (EDPB) нават стварыў адзін спецыяльная аператыўная група каб дапамагчы каардынаваць расследаванне. І калі гэтыя агенцтвы запытаюць змены ў OpenAI, яны могуць паўплываць на тое, як сэрвіс працуе для карыстальнікаў па ўсім свеце. 

Асцярогі рэгулятараў можна падзяліць на дзве катэгорыі:

  • адкуль бяруцца даныя навучання ChatGPT e
  • як OpenAI прадастаўляе інфармацыю сваім карыстальнікам.

ChatGPT выкарыстоўвае вялікія моўныя мадэлі (LLM) GPT-3.5 і GPT-4 OpenAI, якія навучаюцца на вялікіх аб'ёмах створанага чалавекам тэксту. OpenAI асцярожна ставіцца да таго, які навучальны тэкст ён выкарыстоўвае, але кажа, што ён абапіраецца на «розныя агульнадаступныя, створаныя і ліцэнзаваныя крыніцы даных, якія могуць уключаць агульнадаступную асабістую інфармацыю».

Яўная згода

Гэта патэнцыйна стварае вялікія праблемы ў адпаведнасці з GDPR. Закон быў прыняты ў 2018 годзе і распаўсюджваецца на ўсе службы, якія збіраюць або апрацоўваюць дадзеныя грамадзян ЕС, незалежна ад таго, дзе знаходзіцца адказная арганізацыя. Правілы GDPR патрабуюць ад кампаній атрымання відавочнай згоды перад зборам асабістых даных, юрыдычнага абгрунтавання таго, чаму яны збіраюцца, і празрыстасці адносна таго, як яны выкарыстоўваюцца і захоўваюцца.

Інавацыйны бюлетэнь
Не прапусціце самыя важныя навіны пра інавацыі. Падпішыцеся, каб атрымліваць іх па электроннай пошце.

Еўрапейскія рэгулюючыя органы кажуць, што сакрэтнасць вучэбных даных OpenAI азначае, што няма магчымасці пацвердзіць, ці была ўведзеная асабістая інфармацыя першапачаткова прадастаўлена са згоды карыстальніка, і GPDP у прыватнасці сцвярджаў, што ў OpenAI «не было юрыдычных падстаў» для іх збору. Дагэтуль OpenAI і іншыя абыходзіліся без пільнай увагі, але гэтая заява дадае вялікі знак пытання да будучых намаганняў па збору даных.

Права быць забытым

Тады ёсць " права быць забытым ” GDPR, які дазваляе карыстальнікам запытваць у кампаній выпраўленне іх асабістай інфармацыі або поўнае яе выдаленне. Адкрыты штучны інтэлект раней абнаўляў сваю палітыку прыватнасці каб палегчыць такія запыты, але так абмяркоўваць ці магчыма іх тэхнічна кіраваць, улічваючы, наколькі складаным можа быць раздзяленне канкрэтныя дадзеныя як толькі яны былі ўведзены ў гэтыя вялікія моўныя мадэлі.

OpenAI таксама збірае інфармацыю непасрэдна ад карыстальнікаў. Як і любая інтэрнэт-платформа, яна збірае а стандартны набор дадзеных карыстальніка (напрыклад, імя, кантактная інфармацыя, дадзеныя карты і г.д.). Але больш важна тое, што ён рэгіструе ўзаемадзеянне карыстальнікаў з ChatGPT. Як гаворыцца ў FAQ , гэтыя даныя могуць быць прагледжаны супрацоўнікамі OpenAI і выкарыстоўваюцца для навучання будучых версій яго мадэлі. Улічваючы інтымныя пытанні, якія людзі задаюць ChatGPT, выкарыстоўваючы бота ў якасці тэрапеўта або лекара, гэта азначае, што кампанія збірае ўсе віды канфідэнцыйных даных.

Прынамсі, частка гэтых даных магла быць атрымана ад дзяцей, паколькі палітыка OpenAI абвяшчае, што яна «свядома не збірае асабістую інфармацыю ад дзяцей ва ўзросце да 13 гадоў», строгага кантролю над узростам не існуе. Гэта не спалучаецца з правіламі ЕС, якія забараняюць збор даных ад людзей ва ўзросце да 13 гадоў і (у некаторых краінах) патрабуюць згоды бацькоў для дзяцей ва ўзросце да 16 гадоў. З іншага боку, GPDP заявіла, што адсутнасць у ChatGPT узроставых фільтраў выкрывае непаўналетніх a "абсалютна неадэкватныя адказы ў параўнанні са ступенню іх развіцця і самасвядомасці". 

Ілжывая інфармацыя

Таксама схільнасць ChatGPT да прадастаўляць ілжывую інфармацыю можа быць праблемай. Правілы GDPR прадугледжваюць, што ўсе персанальныя даныя павінны быць дакладнымі, пра што GPDP падкрэсліла ў сваім паведамленні. У залежнасці ад таго, як паступіць defiвечара можа выклікаць праблемы для большасці генератараў тэксту AI, якія схільныя да " allucinazioni “: добры галіновы тэрмін для фактычна няправільных або недарэчных адказаў на запыт. Гэта ўжо выклікала некаторыя рэальныя наступствы ў іншых месцах, як, напрыклад, у аўстралійскага рэгіянальнага мэра пагражаў падаць у суд на OpenAI за паклёп пасля таго, як ChatGPT ілжыва заявіў, што адбыў турэмны тэрмін за карупцыю.

Папулярнасць ChatGPT і цяперашняе дамінаванне на рынку штучнага інтэлекту робяць яго асабліва прывабнай мішэнню, але няма ніякіх прычын, чаму яго канкурэнты і ўдзельнікі, такія як Google з Bard або Microsoft з яго Azure AI на аснове OpenAI, не сутыкаюцца з пільнай увагай. Перад ChatGPT Італія забараніла платформу чат-ботаў Рэплікацыя за збор інфармацыі аб непаўналетніх і дагэтуль застаецца забароненым. 

Нягледзячы на ​​тое, што GDPR з'яўляецца магутным наборам законаў, ён не быў створаны для вырашэння канкрэтных праблем штучнага інтэлекту. Правілы, якія , аднак яны могуць быць на гарызонце. 

Закон аб штучным інтэлекту

У 2021 годзе ЕС прадставіў свой першы праектЗакон аб штучным інтэлекце (AIA) , заканадаўства, якое будзе працаваць разам з GDPR. Закон рэгулюе інструменты штучнага інтэлекту ў залежнасці ад меркаванага рызыкі: ад «мінімальнага» (напрыклад, фільтры спаму) да «высокага» (інструменты штучнага інтэлекту для праваахоўных органаў або адукацыі) або «непрымальнага», і таму забароненага (напрыклад, сістэма сацыяльнага крэдытавання). Пасля выбуху вялікіх моўных мадэляў, такіх як ChatGPT у мінулым годзе, заканадаўцы зараз імкнуцца дадаць правілы для «асноўных мадэляў» і «сістэм штучнага інтэлекту агульнага прызначэння (GPAI)» - два тэрміны для сістэм штучнага інтэлекту, уключаючы LLM - і патэнцыйна класіфікаваць як паслугі высокай рызыкі.

Заканадаўцы ЕС дасягнулі папярэдняга пагаднення па Законе аб AI 27 красавіка. Галасаванне камісіі па праекце адбудзецца 11 мая, а канчатковая прапанова чакаецца ў сярэдзіне чэрвеня. Такім чынам, Еўрапейская рада, парламент і камісія павінны будуць вырашыць любыя пакінутыя спрэчкі перад выкананнем закона. Калі ўсё пойдзе гладка, ён можа быць прыняты да другой паловы 2024 года, крыху адстаючы ад мэты афіцыйная Еўрапейскія выбары ў траўні 2024 г.

У OpenAI яшчэ ёсць мэты, якія трэба дасягнуць. Да 30 верасня трэба ўвесці больш жорсткія ўзроставыя абмежаванні, каб не дапускаць дзяцей да 13 гадоў, і патрабаваць згоды бацькоў для падлеткаў старэйшага ўзросту. У выпадку няўдачы ён можа быць зноў заблакіраваны. Але гэта паслужыла прыкладам таго, што Еўропа лічыць прымальнымі паводзінамі для кампаніі AI, па меншай меры, пакуль не будуць прыняты новыя законы.

Падобныя чытанні

Ercole Palmeri

Інавацыйны бюлетэнь
Не прапусціце самыя важныя навіны пра інавацыі. Падпішыцеся, каб атрымліваць іх па электроннай пошце.

Апошнія артыкулы

Будучыня тут: як індустрыя суднаходства рэвалюцыянізуе сусветную эканоміку

Ваенна-марскі сектар - гэта сапраўдная глабальная эканамічная сіла, якая перайшла да 150-мільярднага рынку...

1 мая 2024

Выдаўцы і OpenAI падпісваюць пагадненні аб рэгуляванні патоку інфармацыі, апрацаванай штучным інтэлектам

У мінулы панядзелак Financial Times абвясціла аб здзелцы з OpenAI. FT ліцэнзуе сваю журналістыку сусветнага ўзроўню...

Красавік 30 2024

Інтэрнэт-плацяжы: вось як паслугі струменевай перадачы прымушаюць вас плаціць вечна

Мільёны людзей плацяць за струменевыя паслугі, плацячы штомесячную абаненцкую плату. Распаўсюджана меркаванне, што вы…

Красавік 29 2024

Veeam прапануе самую поўную падтрымку праграм-вымагальнікаў - ад абароны да адказу і аднаўлення

Coveware ад Veeam працягне прадастаўляць паслугі рэагавання на інцыдэнты кібервымагальніцтва. Coveware будзе прапаноўваць судова-медыцынскую экспертызу і магчымасці выпраўлення…

Красавік 23 2024

Чытайце Innovation на сваёй мове

Інавацыйны бюлетэнь
Не прапусціце самыя важныя навіны пра інавацыі. Падпішыцеся, каб атрымліваць іх па электроннай пошце.

Выконвайце за намі