Artiklid

OpenAI ja EL-i andmekaitsereeglid, pärast Itaaliat on tulemas uusi piiranguid

OpenAI-l õnnestus Itaalia andmeametitele positiivselt vastata ja tühistada riigis kehtiv keeld eelmisel nädalal ChatGPT-s, kuid tema võitlus Euroopa regulaatoritega pole veel kaugeltki lõppenud. 

Eeldatav lugemisaeg: 9 minutit

2023. aasta alguses sattus OpenAI populaarne ja vastuoluline ChatGPT vestlusbot suure juriidilise probleemiga: Itaalias kehtestati tõhus keeld. Itaalia andmekaitseamet (GPDP) on süüdistanud OpenAI-d EL-i andmekaitsereeglite rikkumises ning ettevõte on nõustunud probleemi lahendamiseks Itaalias juurdepääsu teenusele piirama. 28. aprillil naasis ChatGPT riiki, OpenAI käsitles GPDP-probleeme kergelt, ilma oma teenuses suuri muudatusi tegemata – see oli näiline võit.

Vastus Itaalia privaatsusgarantiile

GPDP kinnitas et tervitada ChatGPT tehtud muudatusi. Ettevõtte juriidilised probleemid – ja sarnaseid vestlusroboteid ehitavate ettevõtete omad – on aga ilmselt alles algamas. Mitme riigi reguleerivad asutused uurivad, kuidas need tehisintellekti tööriistad teavet koguvad ja toodavad, viidates mitmetele litsentseerimata koolitusandmeid koguvate ettevõtete muredele kuni vestlusrobotite kalduvuseni levitada desinformatsiooni. 

Euroopa Liit ja GDPR

EL-is jõustavad nad andmekaitse üldmäärust (GDPR), mis on üks tugevamaid eraelu puutumatuse õigusraamistikke maailmas, mille mõju avaldub tõenäoliselt ka väljaspool Euroopat. Samal ajal töötavad Euroopa seadusandjad seaduse kallal, mis käsitleks konkreetselt tehisintellekti, mis tõenäoliselt juhatab sisse uue reguleerimisajastu selliste süsteemide nagu ChatGPT jaoks. 

ChatGPT populaarsus

ChatGPT on üks populaarsemaid näiteid generatiivsest tehisintellektist, katustermin, mis hõlmab tööriistu, mis toodavad kasutaja taotluste alusel teksti, pilte, videot ja heli. Teenusest on väidetavalt saanud üks kõige kiiremini kasvavad tarbijarakendused ajaloos pärast seda, kui jõudis 100 miljoni igakuise aktiivse kasutajani vaid kahe kuuga pärast käivitamist 2022. aasta novembris (OpenAI pole neid arve kunagi kinnitanud). 

Inimesed kasutavad seda teksti tõlkimiseks erinevatesse keeltesse, kirjutamiseks ülikooli esseed ja genereerida kood. Kuid kriitikud, sealhulgas reguleerivad asutused, on rõhutanud ChatGPT ebausaldusväärset väljundit, segaseid autoriõiguse probleeme ja hämaraid andmekaitsetavasid.

Itaalia oli esimene riik, mis kolis. 31. märtsil tõi ta esile neli viisi, kuidas ta arvas, et OpenAI rikub GDPR-i:

  • lubada ChatGPT-l esitada ebatäpset või eksitavat teavet,
  • ei teavita kasutajaid oma andmete kogumise tavadest,
  • vastama ühele kuuest võimalikust andmetöötluse õiguslikust põhjendusest isiklik e
  • ei piira piisavalt alla 13-aastastel lastel teenuse kasutamist. 

Euroopa ja mitte-Euroopa

Ükski teine ​​riik pole selliseid meetmeid võtnud. Kuid alates märtsist on vähemalt kolm ELi riiki Saksamaa , Prantsusmaa e Hispaania – on algatanud oma uurimise ChatGPT kohta. 

Samal ajal teisel pool Atlandi ookeani Kanada hindab privaatsusprobleeme oma isikuandmete kaitse ja elektrooniliste dokumentide seaduse ehk PIPEDA alusel. Euroopa Andmekaitsenõukogu (EDPB) on selle isegi loonud pühendatud töörühm uurimist koordineerida. Ja kui need agentuurid nõuavad OpenAI-s muudatusi, võivad need mõjutada teenuse toimimist kasutajate jaoks kogu maailmas. 

Reguleerivate asutuste mured võib laias laastus jagada kahte kategooriasse:

  • kust pärinevad ChatGPT treeningu andmed e
  • kuidas OpenAI oma kasutajatele teavet pakub.

ChatGPT kasutab OpenAI GPT-3.5 ja GPT-4 suuri keelemudeleid (LLM), mis on koolitatud suure hulga inimeste loodud tekstide jaoks. OpenAI on ettevaatlik selle suhtes, millist koolitusteksti ta kasutab, kuid ütleb, et see tugineb "mitmesugustele avalikult kättesaadavatele, loodud ja litsentsitud andmeallikatele, mis võivad sisaldada avalikult kättesaadavat isiklikku teavet".

Selgesõnaline nõusolek

See võib GDPR-i kohaselt tekitada suuri probleeme. Seadus jõustus 2018. aastal ja hõlmab kõiki teenuseid, mis koguvad või töötlevad ELi kodanike andmeid, olenemata vastutava organisatsiooni asukohast. GDPR-i reeglid nõuavad, et ettevõtted peavad enne isikuandmete kogumist omama selgesõnalist nõusolekut, omama seaduslikku põhjendust andmete kogumise kohta ning olema läbipaistvad nende kasutamise ja säilitamise osas.

Innovatsiooni uudiskiri
Ärge jätke ilma kõige olulisematest uuendustest. Registreeruge, et saada neid meili teel.

Euroopa regulaatorid ütlevad, et OpenAI koolitusandmete saladus tähendab, et pole võimalik kinnitada, kas sisestatud isikuandmed esitati algselt kasutaja nõusolekul, ja GPDP väitis konkreetselt, et OpenAI-l ei olnud nende kogumiseks "seaduslikku alust". Seni on OpenAI ja teised vähesest kontrollist pääsenud, kuid see väide lisab tulevastele andmete kraapimispüüdlustele suure küsimärgi.

Õigus olla unustatud

Siis on " õigus olla unustatud GDPR-i, mis võimaldab kasutajatel nõuda ettevõtetel oma isikuandmete parandamist või täielikku eemaldamist. Avage AI on varem oma privaatsuspoliitikat värskendanud selliste taotluste esitamise hõlbustamiseks, kuid jah, see on nii arutlema kas neid on tehniliselt võimalik hallata, arvestades selle eraldamise keerukust konkreetsed andmed kui need on nendesse suurtesse keelemudelitesse pandud.

OpenAI kogub teavet ka otse kasutajatelt. Nagu iga Interneti-platvorm, kogub see a standardne kasutajaandmete kogum (nt nimi, kontaktandmed, kaardi andmed jne). Kuid veelgi olulisem on see, et see logib kasutajate suhtlust ChatGPT-ga. Nagu on märgitud KKK-s , saavad need andmed üle vaadata OpenAI töötajad ja neid kasutatakse selle mudeli tulevaste versioonide koolitamiseks. Arvestades intiimseid küsimusi, mida inimesed ChatGPT-lt küsivad, kasutades robotit terapeudina või arstina, tähendab see, et ettevõte kogub igasuguseid tundlikke andmeid.

Vähemalt osa neist andmetest võib olla kogutud lastelt, kuna kuigi OpenAI poliitika väidab, et see "ei kogu teadlikult alla 13-aastastelt lastelt isiklikku teavet", puudub range vanusekontroll. See ei sobi hästi ELi eeskirjadega, mis keelavad andmete kogumise alla 13-aastastelt inimestelt ja (mõnes riigis) nõuavad alla 16-aastaste laste puhul vanema nõusolekut. Väljundi poolel ütles GPDP, et ChatGPT vanusefiltrite puudumine paljastab alaealised a "Absoluutselt ebaadekvaatsed vastused võrreldes nende arenguastme ja eneseteadlikkusega". 

Vale teave

Samuti ChatGPT kalduvus esitada valeandmeid võib olla probleem. GDPR-i määrused näevad ette, et kõik isikuandmed peavad olema täpsed, mida GPDP oma teadaandes rõhutas. Olenevalt sellest, kuidas see tuleb definite, võib enamiku tehisintellekti tekstigeneraatorite puhul, mis on altid " hallutsinatsioonid “: Kena tööstustermin päringu tegelike valede või ebaoluliste vastuste jaoks. See on juba näinud mõningaid reaalseid tagajärgi mujal, nagu on teinud Austraalia piirkondlik linnapea ähvardas OpenAI laimu eest kohtusse kaevata pärast seda, kui ChatGPT väitis valelikult, et on kandnud korruptsiooni eest vanglakaristust.

ChatGPT populaarsus ja praegune AI turgu valitsev seisund muudavad selle eriti atraktiivseks sihtmärgiks, kuid pole põhjust, miks selle konkurendid ja kaasautorid, nagu Google koos Bardiga või Microsoft OpenAI-l põhineva Azure AI-ga, ei puutu kontrolli alla. Enne ChatGPT-d keelustas Itaalia vestlusroboti platvormi Replika alaealiste kohta teabe kogumiseks ja on seni olnud keelatud. 

Kuigi GDPR on võimas seaduste kogum, ei loodud see konkreetsete tehisintellektiga seotud probleemide lahendamiseks. Reeglid seda , need võivad siiski olla silmapiiril. 

Tehisintellekti seadus

2021. aastal esitas EL oma esimese eelnõuTehisintellekti seadus (AIA) , õigusaktid, mis töötavad koos GDPR-iga. Seadus reguleerib tehisintellekti tööriistu nende tajutava riski alusel, alates "minimaalsest" (näiteks rämpspostifiltrid) kuni "kõrgeni" (AI tööriistad õiguskaitse või hariduse jaoks) või "vastuvõetamatu" ja seetõttu keelatud (nagu sotsiaalkrediidi süsteem). Pärast suurte keelemudelite (nt ChatGPT) plahvatuslikku levikut eelmisel aastal võitlevad seadusandjad nüüd reeglite lisamisega põhimudelitele ja üldotstarbelistele tehisintellektisüsteemidele (GPAI) – kaks mõistet intelligentsete süsteemide tehisskaala, sealhulgas LLM-i jaoks. liigitada kui kõrge riskiga teenused.

ELi seadusandjad on jõudnud tehisintellekti seaduse osas esialgsele kokkuleppele 27. aprillil. Komisjon hääletab eelnõu üle 11. mail ja lõplikku ettepanekut on oodata juuni keskel. Seetõttu peavad Euroopa Ülemkogu, parlament ja komisjon seda tegema lahendada kõik ülejäänud vaidlused enne seaduse rakendamist. Kui kõik läheb libedalt, võidakse see vastu võtta 2024. aasta teiseks pooleks, eesmärgist veidi maha jäädes ametnik 2024. aasta mai Euroopa Parlamendi valimistel.

OpenAI-l on veel eesmärke saavutada. Kuni 30. septembrini on aega kehtestada rangem vanusepiirang alla 13-aastaste laste eemalhoidmiseks ja vanematele alaealistele teismelistele on vaja vanemate nõusolekut. Kui see ebaõnnestub, võib see uuesti blokeerida. Kuid see oli näide sellest, mida Euroopa peab tehisintellektiettevõtte jaoks vastuvõetavaks käitumiseks, vähemalt kuni uute seaduste vastuvõtmiseni.

Seotud lugemised

Ercole Palmeri

Innovatsiooni uudiskiri
Ärge jätke ilma kõige olulisematest uuendustest. Registreeruge, et saada neid meili teel.

Viimased artiklid

Uuenduslik sekkumine liitreaalsusesse koos Apple'i vaatajaga Catania polikliinikus

Catania polikliinikus viidi läbi oftalmoplastika operatsioon Apple Vision Pro reklaamivaaturiga…

3 mai 2024

Lastele mõeldud värvimislehtede eelised – võlumaailm igas vanuses

Peenmotoorika arendamine värvimise kaudu valmistab lapsi ette keerukamate oskuste, nagu kirjutamise, jaoks. Värvimiseks…

2 mai 2024

Tulevik on käes: kuidas laevandustööstus muudab maailmamajandust murranguliseks

Meresõidusektor on tõeline ülemaailmne majanduslik jõud, mis on liikunud 150 miljardi suuruse turu poole...

1 mai 2024

Kirjastajad ja OpenAI sõlmivad lepinguid tehisintellekti poolt töödeldava teabe liikumise reguleerimiseks

Eelmisel esmaspäeval teatas Financial Times tehingust OpenAI-ga. FT litsentsib oma maailmatasemel ajakirjandust…

Aprill 30 2024