Članci

Pravila o zaštiti podataka OpenAI i EU, nakon Italije slijede nova ograničenja

OpenAI je uspio pozitivno odgovoriti talijanskim vlastima za podatke i ukinuti efektivnu zabranu u zemlji na ChatGPT-u prošle sedmice, ali njegova borba protiv evropskih regulatora je daleko od kraja. 

Predviđeno vrijeme čitanja: 9 minute

Početkom 2023. OpenAI-jev popularni i kontroverzni ChatGPT chatbot naišao je na veliki pravni problem: efektivnu zabranu u Italiji. Italijansko tijelo za zaštitu podataka (GPDP) optužilo je OpenAI za kršenje pravila EU o zaštiti podataka, a kompanija je pristala da ograniči pristup servisu u Italiji dok pokušava riješiti problem. Dana 28. aprila, ChatGPT se vratio u zemlju, a OpenAI se olako bavio problemima GPDP-a bez ikakvih većih promjena u svojoj usluzi – očigledna pobjeda.

Odgovorite talijanski garant privatnosti

GPDP je potvrdio da "pozdravi" promjene koje je napravio ChatGPT. Međutim, pravni problemi kompanije – kao i problemi kompanija koje prave slične chatbotove – vjerovatno tek počinju. Regulatori u nekoliko zemalja istražuju kako ovi alati AI prikupljaju i proizvode informacije, navodeći niz zabrinutosti od kompanija koje prikupljaju nelicencirane podatke o obuci do tendencije chatbotova da šire dezinformacije. 

Evropska unija i GDPR

U EU provode Opću uredbu o zaštiti podataka (GDPR), jedan od najsnažnijih zakonskih okvira za privatnost u svijetu, čiji će se efekti vjerovatno osjetiti i van Evrope. U međuvremenu, evropski zakonodavci rade na zakonu koji će se posebno baviti umjetnom inteligencijom, što će vjerovatno otvoriti novu eru regulacije za sisteme kao što je ChatGPT. 

Popularnost ChatGPT

ChatGPT je jedan od najpopularnijih primjera generativne AI, krovnog pojma koji pokriva alate koji proizvode tekst, slike, video i audio na osnovu zahtjeva korisnika. Usluga je navodno postala jedna od njih najbrže rastuće potrošačke aplikacije u istoriji nakon što je dostigao 100 miliona aktivnih korisnika mesečno u samo dva meseca nakon lansiranja u novembru 2022. (OpenAI nikada nije potvrdio ove brojke). 

Ljudi ga koriste za prevođenje teksta na različite jezike, pisanje univerzitetski eseji i generirati kod. Ali kritičari, uključujući regulatore, istakli su nepouzdan rezultat ChatGPT-a, zbunjujuća pitanja autorskih prava i sumnjive prakse zaštite podataka.

Italija je bila prva zemlja koja se preselila. 31. marta je istakao četiri načina na koja vjeruje da OpenAI krši GDPR:

  • dozvoliti ChatGPT-u da pruži netačne ili obmanjujuće informacije,
  • ne informiše korisnike o svojim praksama prikupljanja podataka,
  • ispunjavaju bilo koje od šest mogućih pravnih opravdanja za obradu podataka lični e
  • ne ograničavaju na odgovarajući način djecu mlađu od 13 godina u korištenju Usluge. 

Evropa i ne-Evropa

Nijedna druga država nije poduzela takvu akciju. Ali od marta, najmanje tri zemlje EU – Germanija , Francuska e Spagna – pokrenuli su vlastitu istragu o ChatGPT-u. 

U međuvremenu, s druge strane Atlantika, Kanada procjenjuje zabrinutost za privatnost u skladu sa svojim Zakonom o zaštiti osobnih podataka i elektronskim dokumentima, ili PIPEDA. Evropski odbor za zaštitu podataka (EDPB) je čak osnovao jedan namenska radna grupa da pomogne u koordinaciji istrage. A ako ove agencije zatraže promjene u OpenAI-u, mogle bi utjecati na to kako usluga funkcionira za korisnike širom svijeta. 

Brige regulatora mogu se široko podijeliti u dvije kategorije:

  • odakle potiču podaci o obuci za ChatGPT e
  • kako OpenAI pruža informacije svojim korisnicima.

ChatGPT koristi OpenAI GPT-3.5 i GPT-4 modele velikih jezika (LLM), koji su obučeni na velikim količinama teksta koji je napravio čovjek. OpenAI je oprezan u vezi sa tačno kojim tekstom za obuku koristi, ali kaže da se oslanja na "različite licencirane, kreirane i javno dostupne izvore podataka, koji mogu uključivati ​​javno dostupne lične podatke."

Eksplicitna saglasnost

Ovo potencijalno predstavlja velike probleme prema GDPR-u. Zakon je donesen 2018. godine i pokriva sve službe koje prikupljaju ili obrađuju podatke građana EU, bez obzira na to gdje je sjedište odgovorne organizacije. Pravila GDPR-a zahtijevaju od kompanija da imaju izričit pristanak prije prikupljanja ličnih podataka, da imaju pravno opravdanje zašto se prikupljaju i da budu transparentni u pogledu načina na koji se koriste i pohranjuju.

Inovacijski bilten
Ne propustite najvažnije vijesti o inovacijama. Prijavite se da ih primate putem e-pošte.

Evropski regulatori kažu da tajnost podataka o obuci OpenAI-ja znači da ne postoji način da se potvrdi da li su uneseni lični podaci prvobitno dostavljeni uz pristanak korisnika, a GPDP je izričito tvrdio da OpenAI uopšte nema „pravnu osnovu“ da ih prikupi. Do sada su se OpenAI i drugi izvlačili sa malo ispitivanja, ali ova izjava dodaje veliki znak pitanja budućim naporima za prikupljanje podataka.

Pravo na zaborav

Zatim tu je " pravo na zaborav ” GDPR-a, koji korisnicima omogućava da traže od kompanija da isprave svoje lične podatke ili da ih potpuno uklone. Otvori AI je prethodno ažurirala svoju politiku privatnosti da se olakšaju takvi zahtjevi, ali jeste debato da li je tehnički moguće upravljati njima, s obzirom na to koliko složeno može biti odvajanje specifični podaci jednom kada su stavljeni u ove velike jezičke modele.

OpenAI takođe prikuplja informacije direktno od korisnika. Kao i svaka internet platforma, ona prikuplja a standardni skup korisničkih podataka (npr. ime, kontakt informacije, detalji kartice, itd.). Ali što je još važnije, bilježi interakcije korisnika s ChatGPT-om. As navedeno u FAQ , ove podatke mogu pregledati zaposlenici OpenAI-a i koriste se za obuku budućih verzija njegovog modela. S obzirom na intimna pitanja koja ljudi postavljaju ChatGPT-u, koristeći bota kao terapeuta ili doktora, to znači da kompanija prikuplja sve vrste osjetljivih podataka.

Barem neki od ovih podataka su možda prikupljeni od djece, jer dok politika OpenAI-a navodi da "ne prikuplja svjesno lične podatke od djece mlađe od 13 godina", ne postoji stroga kontrola starosti. Ovo ne odgovara pravilima EU, koja zabranjuju prikupljanje podataka od osoba mlađih od 13 godina i (u nekim zemljama) zahtijevaju saglasnost roditelja za djecu mlađu od 16 godina. Sa izlazne strane, GPDP je rekao da nedostatak filtera starosti u ChatGPT-u razotkriva maloljetnike a "apsolutno neadekvatni odgovori u odnosu na njihov stepen razvijenosti i samosvijesti". 

Lažne informacije

Takođe ChatGPT sklonost ka dati lažne informacije može biti problem. GDPR propisi propisuju da svi lični podaci moraju biti tačni, što je GPDP istakao u svom saopštenju. Zavisi kako dođe defikonačno, moglo bi predstavljati probleme za većinu generatora AI teksta, koji su skloni ” halucinacije “: Lijep industrijski izraz za zapravo netačne ili nebitne odgovore na upit. Ovo je već doživjelo neke reperkusije u stvarnom svijetu drugdje, kao što je to imao australski regionalni gradonačelnik prijetio da će tužiti OpenAI za klevetu nakon što je ChatGPT lažno tvrdio da je odslužio zatvorsku kaznu zbog korupcije.

Popularnost ChatGPT-a i trenutna dominacija na tržištu umjetne inteligencije čine ga posebno atraktivnom metom, ali nema razloga zašto se njegovi konkurenti i saradnici, poput Googlea s Bardom ili Microsofta sa svojom Azure AI zasnovanom na OpenAI-u, ne moraju suočiti s ispitivanjem. Prije ChatGPT-a, Italija je zabranila platformu za chat bot Replika za prikupljanje podataka o maloljetnicima i do sada je ostao zabranjen. 

Iako je GDPR moćan skup zakona, nije kreiran da se bavi specifičnim pitanjima umjetne inteligencije. Pravila to , međutim, možda su na horizontu. 

Zakon o umjetnoj inteligenciji

EU je 2021. predstavila svoj prvi nacrtZakon o umjetnoj inteligenciji (AIA) , zakonodavstvo koje će raditi zajedno sa GDPR-om. Zakon reguliše AI alate na osnovu njihovog uočenog rizika, od „minimalnog“ (stvari poput filtera za neželjenu poštu) do „visokog“ (AI alati za provođenje zakona ili obrazovanje) ili „neprihvatljivih“ i stoga zabranjenih (poput sistema društvenih kredita). Nakon eksplozije velikih jezičkih modela kao što je ChatGPT prošle godine, zakonodavci se sada utrkuju da dodaju pravila za „jezgrene modele“ i „sisteme umjetne inteligencije opšte namjene (GPAI)“ – dva termina za sisteme inteligencije na umjetnoj skali uključujući LLM – i potencijalno klasifikovati kao visokorizične usluge.

zakonodavci EU postigli su okvirni sporazum o Zakonu o AI 27. aprila. Komisija će o nacrtu glasati 11. maja, a konačni prijedlog se očekuje sredinom juna. Stoga će Evropski savjet, Parlament i Komisija morati riješiti sve preostale sporove prije primjene zakona. Ako sve prođe glatko, mogao bi biti usvojen do druge polovine 2024. godine, malo iza cilja službeni Evropskih izbora u maju 2024.

OpenAI još uvijek ima ciljeve koje treba postići. Do 30. septembra je potrebno postaviti strožiju starosnu granicu da se mlađi od 13 godina ne ulaze i da je potrebna saglasnost roditelja za starije maloljetne tinejdžere. Ako ne uspije, može se ponovo blokirati. Ali je pružio primjer onoga što Evropa smatra prihvatljivim ponašanjem za AI kompaniju, barem dok se ne donesu novi zakoni.

Related Readings

Ercole Palmeri

Inovacijski bilten
Ne propustite najvažnije vijesti o inovacijama. Prijavite se da ih primate putem e-pošte.

Nedavni članak

Smart Lock Market: objavljen izvještaj o istraživanju tržišta

Termin Smart Lock Market odnosi se na industriju i ekosistem koji okružuje proizvodnju, distribuciju i upotrebu…

27 Marzo 2024

Šta su obrasci dizajna: zašto ih koristiti, klasifikacija, prednosti i nedostaci

U softverskom inženjerstvu, obrasci dizajna su optimalna rješenja za probleme koji se obično javljaju u dizajnu softvera. Ja sam kao…

26 Marzo 2024

Tehnološka evolucija industrijskog označavanja

Industrijsko označavanje je širok pojam koji obuhvata nekoliko tehnika koje se koriste za stvaranje trajnih tragova na površini…

25 Marzo 2024

Primjeri Excel makroa napisanih pomoću VBA

Sljedeći jednostavni primjeri Excel makroa napisani su korištenjem VBA procijenjenog vremena čitanja: 3 minute Primjer…

25 Marzo 2024