Разліковы час чытання: 9 хвілін
У пачатку 2023 года папулярны і супярэчлівы чат-бот OpenAI ChatGPT сутыкнуўся з сур'ёзнай юрыдычнай праблемай: фактычная забарона ў Італіі. Упраўленне па абароне даных Італіі (GPDP) абвінаваціла OpenAI у парушэнні правілаў абароны даных ЕС, і кампанія пагадзілася абмежаваць доступ да сэрвісу ў Італіі, спрабуючы вырашыць праблему. 28 красавіка ChatGPT вярнуўся ў краіну, а OpenAI лёгка вырашыў праблемы GPDP, не ўносячы сур'ёзных змяненняў у свой сэрвіс - відавочная перамога.
GPDP пацвердзіў каб «вітаць» змены, зробленыя ChatGPT. Тым не менш, юрыдычныя праблемы кампаніі - і тых кампаній, якія ствараюць падобныя чат-боты - верагодна, толькі пачынаюцца. Рэгулюючыя органы ў некалькіх краінах даследуюць, як гэтыя інструменты штучнага інтэлекту збіраюць і вырабляюць інфармацыю, спасылаючыся на шэраг праблем, пачынаючы ад кампаній, якія збіраюць неліцэнзійныя навучальныя даныя, і заканчваючы схільнасцю чат-ботаў распаўсюджваць дэзінфармацыю.
У ЕС яны забяспечваюць выкананне Агульнага рэгламенту аб абароне даных (GDPR), адной з самых надзейных заканадаўчых рамак прыватнасці ў свеце, наступствы якой, верагодна, будуць адчувацца і за межамі Еўропы. Між тым, еўрапейскія заканадаўцы працуюць над законам, які будзе канкрэтна датычыцца штучнага інтэлекту, што, верагодна, адкрые новую эру рэгулявання такіх сістэм, як ChatGPT.
ChatGPT - адзін з самых папулярных прыкладаў генератыўнага штучнага інтэлекту, агульны тэрмін, які ахоплівае інструменты, якія ствараюць тэкст, малюнкі, відэа і аўдыя на аснове запытаў карыстальнікаў. Паведамляецца, што сэрвіс стаў адным з самыя хуткарослыя спажывецкія прыкладанні у гісторыі пасля дасягнення 100 мільёнаў актыўных карыстальнікаў у месяц усяго за два месяцы пасля запуску ў лістападзе 2022 года (OpenAI ніколі не пацвярджаў гэтыя лічбы).
З яго дапамогай людзі перакладаюць тэксты на розныя мовы, пішуць універсітэцкія рэфераты і згенераваць код. Але крытыкі, у тым ліку рэгулюючыя органы, падкрэсліваюць ненадзейныя вынікі ChatGPT, заблытаныя праблемы з аўтарскім правам і сумныя практыкі абароны даных.
Італія была першай краінай, якая пераехала. 31 сакавіка ён вылучыў чатыры спосабы, як ён лічыць, што OpenAI парушае GDPR:
Ніякая іншая краіна не прыняла такіх мер. Але з сакавіка як мінімум тры краіны ЕС - Германія , Францыя e Іспанія – распачалі ўласнае расследаванне ChatGPT.
Тым часам, на другім баку Атлантыкі, Канада ацэньвае праблемы прыватнасці ў адпаведнасці з Законам аб абароне асабістай інфармацыі і электронных дакументах або PIPEDA. Еўрапейскі савет па абароне даных (EDPB) нават стварыў адзін спецыяльная аператыўная група каб дапамагчы каардынаваць расследаванне. І калі гэтыя агенцтвы запытаюць змены ў OpenAI, яны могуць паўплываць на тое, як сэрвіс працуе для карыстальнікаў па ўсім свеце.
Асцярогі рэгулятараў можна падзяліць на дзве катэгорыі:
ChatGPT выкарыстоўвае вялікія моўныя мадэлі (LLM) GPT-3.5 і GPT-4 OpenAI, якія навучаюцца на вялікіх аб'ёмах створанага чалавекам тэксту. OpenAI асцярожна ставіцца да таго, які навучальны тэкст ён выкарыстоўвае, але кажа, што ён абапіраецца на «розныя агульнадаступныя, створаныя і ліцэнзаваныя крыніцы даных, якія могуць уключаць агульнадаступную асабістую інфармацыю».
Гэта патэнцыйна стварае вялікія праблемы ў адпаведнасці з GDPR. Закон быў прыняты ў 2018 годзе і распаўсюджваецца на ўсе службы, якія збіраюць або апрацоўваюць дадзеныя грамадзян ЕС, незалежна ад таго, дзе знаходзіцца адказная арганізацыя. Правілы GDPR патрабуюць ад кампаній атрымання відавочнай згоды перад зборам асабістых даных, юрыдычнага абгрунтавання таго, чаму яны збіраюцца, і празрыстасці адносна таго, як яны выкарыстоўваюцца і захоўваюцца.
Еўрапейскія рэгулюючыя органы кажуць, што сакрэтнасць вучэбных даных OpenAI азначае, што няма магчымасці пацвердзіць, ці была ўведзеная асабістая інфармацыя першапачаткова прадастаўлена са згоды карыстальніка, і GPDP у прыватнасці сцвярджаў, што ў OpenAI «не было юрыдычных падстаў» для іх збору. Дагэтуль OpenAI і іншыя абыходзіліся без пільнай увагі, але гэтая заява дадае вялікі знак пытання да будучых намаганняў па збору даных.
Тады ёсць " права быць забытым ” GDPR, які дазваляе карыстальнікам запытваць у кампаній выпраўленне іх асабістай інфармацыі або поўнае яе выдаленне. Адкрыты штучны інтэлект раней абнаўляў сваю палітыку прыватнасці каб палегчыць такія запыты, але так абмяркоўваць ці магчыма іх тэхнічна кіраваць, улічваючы, наколькі складаным можа быць раздзяленне канкрэтныя дадзеныя як толькі яны былі ўведзены ў гэтыя вялікія моўныя мадэлі.
OpenAI таксама збірае інфармацыю непасрэдна ад карыстальнікаў. Як і любая інтэрнэт-платформа, яна збірае а стандартны набор дадзеных карыстальніка (напрыклад, імя, кантактная інфармацыя, дадзеныя карты і г.д.). Але больш важна тое, што ён рэгіструе ўзаемадзеянне карыстальнікаў з ChatGPT. Як гаворыцца ў FAQ , гэтыя даныя могуць быць прагледжаны супрацоўнікамі OpenAI і выкарыстоўваюцца для навучання будучых версій яго мадэлі. Улічваючы інтымныя пытанні, якія людзі задаюць ChatGPT, выкарыстоўваючы бота ў якасці тэрапеўта або лекара, гэта азначае, што кампанія збірае ўсе віды канфідэнцыйных даных.
Прынамсі, частка гэтых даных магла быць атрымана ад дзяцей, паколькі палітыка OpenAI абвяшчае, што яна «свядома не збірае асабістую інфармацыю ад дзяцей ва ўзросце да 13 гадоў», строгага кантролю над узростам не існуе. Гэта не спалучаецца з правіламі ЕС, якія забараняюць збор даных ад людзей ва ўзросце да 13 гадоў і (у некаторых краінах) патрабуюць згоды бацькоў для дзяцей ва ўзросце да 16 гадоў. З іншага боку, GPDP заявіла, што адсутнасць у ChatGPT узроставых фільтраў выкрывае непаўналетніх a "абсалютна неадэкватныя адказы ў параўнанні са ступенню іх развіцця і самасвядомасці".
Таксама схільнасць ChatGPT да прадастаўляць ілжывую інфармацыю можа быць праблемай. Правілы GDPR прадугледжваюць, што ўсе персанальныя даныя павінны быць дакладнымі, пра што GPDP падкрэсліла ў сваім паведамленні. У залежнасці ад таго, як паступіць defiвечара можа выклікаць праблемы для большасці генератараў тэксту AI, якія схільныя да " allucinazioni “: добры галіновы тэрмін для фактычна няправільных або недарэчных адказаў на запыт. Гэта ўжо выклікала некаторыя рэальныя наступствы ў іншых месцах, як, напрыклад, у аўстралійскага рэгіянальнага мэра пагражаў падаць у суд на OpenAI за паклёп пасля таго, як ChatGPT ілжыва заявіў, што адбыў турэмны тэрмін за карупцыю.
Папулярнасць ChatGPT і цяперашняе дамінаванне на рынку штучнага інтэлекту робяць яго асабліва прывабнай мішэнню, але няма ніякіх прычын, чаму яго канкурэнты і ўдзельнікі, такія як Google з Bard або Microsoft з яго Azure AI на аснове OpenAI, не сутыкаюцца з пільнай увагай. Перад ChatGPT Італія забараніла платформу чат-ботаў Рэплікацыя за збор інфармацыі аб непаўналетніх і дагэтуль застаецца забароненым.
Нягледзячы на тое, што GDPR з'яўляецца магутным наборам законаў, ён не быў створаны для вырашэння канкрэтных праблем штучнага інтэлекту. Правілы, якія , аднак яны могуць быць на гарызонце.
У 2021 годзе ЕС прадставіў свой першы праектЗакон аб штучным інтэлекце (AIA) , заканадаўства, якое будзе працаваць разам з GDPR. Закон рэгулюе інструменты штучнага інтэлекту ў залежнасці ад меркаванага рызыкі: ад «мінімальнага» (напрыклад, фільтры спаму) да «высокага» (інструменты штучнага інтэлекту для праваахоўных органаў або адукацыі) або «непрымальнага», і таму забароненага (напрыклад, сістэма сацыяльнага крэдытавання). Пасля выбуху вялікіх моўных мадэляў, такіх як ChatGPT у мінулым годзе, заканадаўцы зараз імкнуцца дадаць правілы для «асноўных мадэляў» і «сістэм штучнага інтэлекту агульнага прызначэння (GPAI)» - два тэрміны для сістэм штучнага інтэлекту, уключаючы LLM - і патэнцыйна класіфікаваць як паслугі высокай рызыкі.
Заканадаўцы ЕС дасягнулі папярэдняга пагаднення па Законе аб AI 27 красавіка. Галасаванне камісіі па праекце адбудзецца 11 мая, а канчатковая прапанова чакаецца ў сярэдзіне чэрвеня. Такім чынам, Еўрапейская рада, парламент і камісія павінны будуць вырашыць любыя пакінутыя спрэчкі перад выкананнем закона. Калі ўсё пойдзе гладка, ён можа быць прыняты да другой паловы 2024 года, крыху адстаючы ад мэты афіцыйная Еўрапейскія выбары ў траўні 2024 г.
У OpenAI яшчэ ёсць мэты, якія трэба дасягнуць. Да 30 верасня трэба ўвесці больш жорсткія ўзроставыя абмежаванні, каб не дапускаць дзяцей да 13 гадоў, і патрабаваць згоды бацькоў для падлеткаў старэйшага ўзросту. У выпадку няўдачы ён можа быць зноў заблакіраваны. Але гэта паслужыла прыкладам таго, што Еўропа лічыць прымальнымі паводзінамі для кампаніі AI, па меншай меры, пакуль не будуць прыняты новыя законы.
Ercole Palmeri
Ваенна-марскі сектар - гэта сапраўдная глабальная эканамічная сіла, якая перайшла да 150-мільярднага рынку...
У мінулы панядзелак Financial Times абвясціла аб здзелцы з OpenAI. FT ліцэнзуе сваю журналістыку сусветнага ўзроўню...
Мільёны людзей плацяць за струменевыя паслугі, плацячы штомесячную абаненцкую плату. Распаўсюджана меркаванне, што вы…
Coveware ад Veeam працягне прадастаўляць паслугі рэагавання на інцыдэнты кібервымагальніцтва. Coveware будзе прапаноўваць судова-медыцынскую экспертызу і магчымасці выпраўлення…