Artikulo

Ang mga panuntunan sa proteksyon ng data ng OpenAI at EU, pagkatapos ng Italya ay higit pang mga paghihigpit na darating

Nagawa ng OpenAI na tumugon nang positibo sa mga awtoridad ng data ng Italyano at alisin ang mabisang pagbabawal ng bansa sa ChatGPT noong nakaraang linggo, ngunit ang kanyang pakikipaglaban sa European regulators ay malayong matapos. 

Tinatayang oras ng pagbabasa: 9 minuto

Noong unang bahagi ng 2023, ang sikat at kontrobersyal na ChatGPT chatbot ng OpenAI ay nagkaroon ng malaking legal na problema: isang epektibong pagbabawal sa Italy. Inakusahan ng Italian Data Protection Authority (GPDP) ang OpenAI ng paglabag sa mga panuntunan sa proteksyon ng data ng EU, at sumang-ayon ang kumpanya na higpitan ang pag-access sa serbisyo sa Italy habang sinusubukan nitong lutasin ang isyu. Noong Abril 28, bumalik sa bansa ang ChatGPT, kung saan bahagyang tinutugunan ng OpenAI ang mga alalahanin ng GPDP nang hindi gumagawa ng anumang malalaking pagbabago sa serbisyo nito – isang maliwanag na tagumpay.

Sagot Italian Privacy Guarantor

Pinagtibay ng GPDP upang "tanggapin" ang mga pagbabagong ginawa ng ChatGPT. Gayunpaman, ang mga legal na isyu ng kumpanya — at ang mga kumpanyang nagtatayo ng mga katulad na chatbots — ay malamang na nagsisimula pa lamang. Ang mga regulator sa ilang bansa ay nag-iimbestiga kung paano nangongolekta at gumagawa ng impormasyon ang mga tool na ito ng AI, na binabanggit ang isang hanay ng mga alalahanin mula sa mga kumpanyang nangongolekta ng hindi lisensyadong data ng pagsasanay hanggang sa pagkahilig ng mga chatbot na magpakalat ng disinformation. 

European Union at GDPR

Sa EU, ipinapatupad nila ang General Data Protection Regulation (GDPR), isa sa pinakamatatag na legal na framework sa privacy sa mundo, ang mga epekto nito ay malamang na mararamdaman din sa labas ng Europe. Samantala, ang mga mambabatas sa Europa ay gumagawa ng isang batas na partikular na tutugon sa artificial intelligence, malamang na magsisimula sa isang bagong panahon ng regulasyon para sa mga system tulad ng ChatGPT. 

Popularidad ng ChatGPT

Ang ChatGPT ay isa sa mga pinakasikat na halimbawa ng generative AI, isang umbrella term na sumasaklaw sa mga tool na gumagawa ng text, mga larawan, video at audio batay sa mga kahilingan ng user. Ang serbisyo ay naiulat na naging isa sa pinakamabilis na lumalagong mga aplikasyon ng consumer sa kasaysayan matapos maabot ang 100 milyong buwanang aktibong user sa loob lamang ng dalawang buwan pagkatapos ilunsad noong Nobyembre 2022 (hindi pa nakumpirma ng OpenAI ang mga bilang na ito). 

Ginagamit ito ng mga tao upang isalin ang teksto sa iba't ibang wika, magsulat mga sanaysay sa unibersidad at bumuo ng code. Ngunit ang mga kritiko, kabilang ang mga regulator, ay na-highlight ang hindi mapagkakatiwalaang output ng ChatGPT, nakakalito na mga isyu sa copyright, at malilim na mga kasanayan sa proteksyon ng data.

Ang Italy ang unang bansang lumipat. Noong Marso 31, itinampok niya ang apat na paraan na pinaniniwalaan niyang nilalabag ng OpenAI ang GDPR:

  • payagan ang ChatGPT na magbigay ng hindi tumpak o mapanlinlang na impormasyon,
  • hindi ipaalam sa mga user ang mga kasanayan sa pangongolekta ng data nito,
  • matugunan ang alinman sa anim na posibleng legal na katwiran para sa pagproseso ng data pansarili e
  • hindi sapat na paghihigpitan ang mga batang wala pang 13 taong gulang mula sa paggamit ng Serbisyo. 

Europa at hindi Europa

Walang ibang bansa ang gumawa ng ganoong aksyon. Ngunit mula noong Marso, hindi bababa sa tatlong bansa sa EU - Alemanya , Pransiya e Espanya – naglunsad ng sarili nilang imbestigasyon sa ChatGPT. 

Samantala, sa kabilang panig ng Atlantiko, Canada ay sinusuri ang mga alalahanin sa privacy sa ilalim ng Personal Information Protection and Electronic Documents Act nito, o PIPEDA. Ang European Data Protection Board (EDPB) ay nag-set up pa ng isa dedikadong task force para tumulong sa pag-coordinate ng imbestigasyon. At kung humiling ang mga ahensyang ito ng mga pagbabago sa OpenAI, maaari nilang maapektuhan kung paano gumagana ang serbisyo para sa mga user sa buong mundo. 

Ang mga alalahanin ng mga regulator ay maaaring malawak na nahahati sa dalawang kategorya:

  • saan nanggagaling ang data ng pagsasanay sa ChatGPT e
  • kung paano nagbibigay ang OpenAI ng impormasyon sa mga gumagamit nito.

Gumagamit ang ChatGPT ng OpenAI's GPT-3.5 at GPT-4 large language models (LLMs), na sinanay sa malaking halaga ng text na ginawa ng tao. Ang OpenAI ay nag-iingat tungkol sa kung aling teksto ng pagsasanay ang ginagamit nito, ngunit sinasabi nito na kumukuha ito sa "iba't ibang lisensyado, nilikha, at magagamit sa publiko na mga mapagkukunan ng data, na maaaring kabilang ang personal na impormasyong magagamit sa publiko."

Tahasang pagpayag

Ito ay posibleng magdulot ng malalaking problema sa ilalim ng GDPR. Ang batas ay pinagtibay noong 2018 at sumasaklaw sa lahat ng serbisyo na nangongolekta o nagpoproseso ng data ng mga mamamayan ng EU, saanman nakabatay ang responsableng organisasyon. Kinakailangan ng mga panuntunan ng GDPR na magkaroon ng tahasang pahintulot ang mga kumpanya bago mangolekta ng personal na data, magkaroon ng legal na katwiran kung bakit ito kinokolekta, at maging transparent tungkol sa kung paano ito ginagamit at iniimbak.

newsletter ng pagbabago
Huwag palampasin ang pinakamahalagang balita sa pagbabago. Mag-sign up upang matanggap ang mga ito sa pamamagitan ng email.

Sinasabi ng mga European regulator na ang lihim ng data ng pagsasanay ng OpenAI ay nangangahulugan na walang paraan upang kumpirmahin kung ang personal na impormasyong ipinasok ay ibinigay sa simula nang may pahintulot ng gumagamit, at ang GPDP ay partikular na nangatuwiran na ang OpenAI ay "walang legal na batayan" upang kolektahin ang mga ito sa unang lugar. Sa ngayon, ang OpenAI at ang iba pa ay nakaligtas sa kaunting pagsisiyasat, ngunit ang pahayag na ito ay nagdaragdag ng isang malaking tandang pananong sa mga pagsisikap sa pag-scrape ng data sa hinaharap.

Karapatang kalimutan

Tapos may " karapatang kalimutan ” ng GDPR, na nagpapahintulot sa mga user na humiling sa mga kumpanya na iwasto ang kanilang personal na impormasyon o ganap na alisin ito. Buksan ang AI ay dati nang na-update ang patakaran sa privacy nito upang mapadali ang mga naturang kahilingan, ngunit oo nga talakayin kung ito ay teknikal na posible upang pamahalaan ang mga ito, kung gaano kahirap ang paghiwalayin tiyak na datos kapag nailagay na sila sa malalaking modelo ng wikang ito.

Nangongolekta din ang OpenAI ng impormasyon nang direkta mula sa mga gumagamit. Tulad ng anumang platform sa internet, nangongolekta ito ng a karaniwang set ng data ng user (hal. pangalan, impormasyon sa pakikipag-ugnayan, mga detalye ng card, atbp.). Ngunit higit na makabuluhan, naitala nito ang mga pakikipag-ugnayan ng mga user sa ChatGPT. Bilang nakasaad sa isang FAQ , ang data na ito ay maaaring suriin ng mga empleyado ng OpenAI at ginagamit upang sanayin ang mga hinaharap na bersyon ng modelo nito. Dahil sa matatalik na tanong ng mga tao sa ChatGPT, gamit ang bot bilang therapist o doktor, nangangahulugan ito na kinokolekta ng kumpanya ang lahat ng uri ng sensitibong data.

Hindi bababa sa ilan sa data na ito ay maaaring nakolekta mula sa mga bata, habang ang patakaran ng OpenAI ay nagsasaad na ito ay "hindi sinasadyang nangongolekta ng personal na impormasyon mula sa mga batang wala pang 13 taong gulang," walang mahigpit na kontrol sa edad. Hindi ito gumagana nang maayos sa mga panuntunan ng EU, na nagbabawal sa pagkolekta ng data mula sa mga taong wala pang 13 taong gulang at (sa ilang bansa) ay nangangailangan ng pahintulot ng magulang para sa mga batang wala pang 16 taong gulang. Sa bahagi ng output, sinabi ng GPDP na ang kakulangan ng mga filter ng edad ng ChatGPT ay naglalantad sa mga menor de edad a "ganap na hindi sapat na mga tugon kumpara sa kanilang antas ng pag-unlad at kamalayan sa sarili". 

Maling impormasyon

Gayundin ang hilig ng ChatGPT sa magbigay ng maling impormasyon maaaring maging problema. Itinakda ng mga regulasyon ng GDPR na ang lahat ng personal na data ay dapat na tumpak, isang bagay na itinampok ng GPDP sa anunsyo nito. Depende sa kung paano ito darating defigabi, maaaring mag-spell ng problema para sa karamihan ng mga AI text generator, na madaling kapitan ng ” guni-guni “: Isang magandang termino sa industriya para sa aktwal na hindi tama o hindi nauugnay na mga sagot sa isang query. Nakakita na ito ng ilang real-world repercussions sa ibang lugar, gaya ng naranasan ng isang alkalde ng rehiyon ng Australia nagbanta na kakasuhan ang OpenAI para sa paninirang-puri matapos ang maling pag-claim ng ChatGPT na nagsilbi siya ng sentensiya sa bilangguan dahil sa katiwalian.

Ang kasikatan ng ChatGPT at kasalukuyang pangingibabaw sa merkado ng AI ay ginagawa itong isang partikular na kaakit-akit na target, ngunit walang dahilan kung bakit ang mga kakumpitensya at kontribyutor nito, tulad ng Google na may Bard o Microsoft kasama ang Azure AI nito batay sa OpenAI, ay hindi nahaharap sa pagsisiyasat. Bago ang ChatGPT, ipinagbawal ng Italy ang platform ng chatbot Replika para sa pagkolekta ng impormasyon sa mga menor de edad at hanggang ngayon ay nanatiling ipinagbabawal. 

Bagama't ang GDPR ay isang makapangyarihang hanay ng mga batas, hindi ito ginawa para tugunan ang mga partikular na isyu sa AI. Panuntunan na , gayunpaman, maaaring nasa abot-tanaw na sila. 

Artificial Intelligence Act

Noong 2021, ipinakita ng EU ang unang draft ngArtificial Intelligence Act (AIA) , batas na gagana kasama ng GDPR. Kinokontrol ng batas ang mga tool ng AI batay sa kanilang nakikitang panganib, mula sa "minimal" (mga bagay tulad ng mga filter ng spam) hanggang sa "mataas" (mga tool ng AI para sa pagpapatupad ng batas o edukasyon) o "hindi katanggap-tanggap" at samakatuwid ay ipinagbabawal (tulad ng isang social credit system). Pagkatapos ng pagsabog ng malalaking modelo ng wika tulad ng ChatGPT noong nakaraang taon, ang mga mambabatas ay nakikipagkarera na ngayon upang magdagdag ng mga panuntunan para sa "mga pangunahing modelo" at "General Purpose Artificial Intelligence (GPAI) system" - dalawang termino para sa mga sistema ng paniktik na artificial scale kabilang ang LLM - at posibleng uriin bilang mga serbisyong may mataas na panganib.

Mga mambabatas sa EU ay umabot sa isang pansamantalang kasunduan sa AI Act noong Abril 27. Isang komisyon ang boboto sa draft sa Mayo 11, at ang huling panukala ay inaasahan sa kalagitnaan ng Hunyo. Samakatuwid, ang European Council, ang Parliament at ang Komisyon ay kailangang lutasin ang anumang natitirang mga hindi pagkakaunawaan bago ipatupad ang batas. Kung magiging maayos ang lahat, maaari itong pagtibayin sa ikalawang kalahati ng 2024, medyo nasa likod ng target opisyal ng mga halalan sa Europa noong Mayo 2024.

Ang OpenAI ay mayroon pa ring mga layunin na dapat makamit. May hanggang Setyembre 30 para gumawa ng mas mahigpit na limitasyon sa edad para hindi makalabas ang mga wala pang 13 taong gulang at kailanganin ang pahintulot ng magulang para sa mga mas matandang menor de edad na kabataan. Kung nabigo ito, maaari itong ma-block muli. Ngunit nagbigay ito ng isang halimbawa ng kung ano ang itinuturing ng Europa na katanggap-tanggap na pag-uugali para sa isang kumpanya ng AI, hindi bababa sa hanggang sa maipasa ang mga bagong batas.

Mga Kaugnay na Pagbasa

Ercole Palmeri

newsletter ng pagbabago
Huwag palampasin ang pinakamahalagang balita sa pagbabago. Mag-sign up upang matanggap ang mga ito sa pamamagitan ng email.

Kamakailang Mga Artikulo

Pumirma ang mga publisher at OpenAI ng mga kasunduan para i-regulate ang daloy ng impormasyong pinoproseso ng Artificial Intelligence

Noong nakaraang Lunes, inihayag ng Financial Times ang isang deal sa OpenAI. Nilisensyahan ng FT ang world-class na pamamahayag nito...

Abril 30 2024

Mga Online na Pagbabayad: Narito Kung Paano Ka Binabayaran ng Mga Serbisyo ng Streaming Magpakailanman

Milyun-milyong tao ang nagbabayad para sa mga serbisyo ng streaming, na nagbabayad ng buwanang bayad sa subscription. Karaniwang opinyon na ikaw ay…

Abril 29 2024

Itinatampok ng Veeam ang pinakakomprehensibong suporta para sa ransomware, mula sa proteksyon hanggang sa pagtugon at pagbawi

Ang Coveware ng Veeam ay patuloy na magbibigay ng mga serbisyo sa pagtugon sa insidente ng cyber extortion. Mag-aalok ang Coveware ng mga kakayahan sa forensics at remediation...

Abril 23 2024

Green and Digital Revolution: Kung Paano Binabago ng Predictive Maintenance ang Industriya ng Langis at Gas

Binabago ng predictive maintenance ang sektor ng langis at gas, na may makabago at proactive na diskarte sa pamamahala ng halaman.…

Abril 22 2024