Artikler

OpenAI og EUs databeskyttelsesregler, etter Italia kommer flere restriksjoner

OpenAI klarte å svare positivt til de italienske datamyndighetene og oppheve landets effektive forbud på ChatGPT forrige uke, men kampen hans mot europeiske regulatorer er langt fra over. 

Beregnet lesetid: 9 minutter

Tidlig i 2023 møtte OpenAIs populære og kontroversielle ChatGPT chatbot et stort juridisk problem: et effektivt forbud i Italia. Det italienske datatilsynet (GPDP) har anklaget OpenAI for brudd på EUs databeskyttelsesregler, og selskapet har gått med på å begrense tilgangen til tjenesten i Italia når det forsøker å løse problemet. Den 28. april kom ChatGPT tilbake til landet, med OpenAI som lett tok opp GPDP-problemer uten å gjøre noen store endringer i tjenesten – en tilsynelatende seier.

Svar italiensk personverngaranti

GPDP bekreftet å "velkommen" endringene gjort av ChatGPT. Imidlertid er selskapets juridiske problemer – og de til selskaper som bygger lignende chatbots – sannsynligvis bare i gang. Regulatorer i flere land undersøker hvordan disse AI-verktøyene samler inn og produserer informasjon, med henvisning til en rekke bekymringer fra selskaper som samler inn ulisensiert opplæringsdata til tendensen til chatboter til å spre desinformasjon. 

EU og GDPR

I EU håndhever de den generelle databeskyttelsesforordningen (GDPR), en av de mest robuste personvernlovgivningene i verden, hvis virkninger sannsynligvis også vil merkes utenfor Europa. I mellomtiden jobber europeiske lovgivere med en lov som spesifikt vil ta for seg kunstig intelligens, og sannsynligvis innlede en ny æra med regulering for systemer som ChatGPT. 

Populariteten til ChatGPT

ChatGPT er et av de mest populære eksemplene på generativ AI, et paraplybegrep som dekker verktøy som produserer tekst, bilder, video og lyd basert på brukerforespørsler. Tjenesten har visstnok blitt en av raskest voksende forbrukerapplikasjoner i historien etter å ha nådd 100 millioner månedlige aktive brukere på bare to måneder etter lansering i november 2022 (OpenAI har aldri bekreftet disse tallene). 

Folk bruker den til å oversette tekst til forskjellige språk, skriver universitetsoppgaver og generere kode. Men kritikere, inkludert regulatorer, har fremhevet ChatGPTs upålitelige utgang, forvirrende opphavsrettsproblemer og lyssky databeskyttelsespraksis.

Italia var det første landet som flyttet. 31. mars fremhevet han fire måter han mente OpenAI brøt med GDPR:

  • tillate ChatGPT å gi unøyaktig eller villedende informasjon,
  • ikke informere brukere om deres datainnsamlingspraksis,
  • oppfylle noen av de seks mulige juridiske begrunnelsene for databehandling personlig e
  • ikke tilstrekkelig begrense barn under 13 år fra å bruke tjenesten. 

Europa og ikke-Europa

Ingen andre land har tatt slike tiltak. Men siden mars har minst tre EU-nasjoner – Tyskland , Frankrike e Spania – har startet sin egen etterforskning av ChatGPT. 

I mellomtiden, på den andre siden av Atlanterhavet, Canada vurderer personvernhensyn i henhold til loven om beskyttelse av personopplysninger og elektroniske dokumenter, eller PIPEDA. European Data Protection Board (EDPB) har til og med opprettet en dedikert arbeidsgruppe for å hjelpe til med å koordinere etterforskningen. Og hvis disse byråene ber om endringer i OpenAI, kan de påvirke hvordan tjenesten fungerer for brukere over hele verden. 

Bekymringene til regulatorer kan grovt deles inn i to kategorier:

  • hvor kommer ChatGPT-treningsdataene fra f.eks
  • hvordan OpenAI gir informasjon til sine brukere.

ChatGPT bruker OpenAIs GPT-3.5 og GPT-4 store språkmodeller (LLM), som er trent på store mengder menneskeskapt tekst. OpenAI er forsiktig med nøyaktig hvilken opplæringstekst den bruker, men sier at den trekker på "en rekke offentlig tilgjengelige, opprettede og lisensierte datakilder, som kan inkludere offentlig tilgjengelig personlig informasjon."

Eksplisitt samtykke

Dette utgjør potensielt store problemer under GDPR. Loven ble vedtatt i 2018 og dekker alle tjenester som samler inn eller behandler data fra EU-borgere, uavhengig av hvor den ansvarlige organisasjonen holder til. GDPR-regler krever at selskaper har eksplisitt samtykke før de samler inn personopplysninger, å ha en juridisk begrunnelse for hvorfor de samles inn, og å være transparente om hvordan de brukes og lagres.

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

Europeiske regulatorer sier at OpenAIs treningsdatahemmelighold betyr at det ikke er noen måte å bekrefte om den personlige informasjonen som ble angitt opprinnelig ble gitt med brukerens samtykke, og GPDP hevdet spesifikt at OpenAI ikke hadde "ingen juridisk grunnlag" for å samle inn dem i utgangspunktet. Så langt har OpenAI og andre sluppet unna med lite gransking, men denne uttalelsen gir et stort spørsmålstegn til fremtidig dataskraping.

Rett til å bli glemt

Så er det " rett til å bli glemt ” av GDPR, som lar brukere be selskaper om å korrigere sine personlige opplysninger eller å fjerne den fullstendig. Åpne AI har tidligere oppdatert sin personvernerklæring for å legge til rette for slike forespørsler, men ja det er det diskutert om det er teknisk mulig å administrere dem, gitt hvor komplekst det kan være å skille spesifikke data når de har blitt satt inn i disse store språkmodellene.

OpenAI samler også inn informasjon direkte fra brukere. Som enhver internettplattform samler den en standard brukerdatasett (f.eks. navn, kontaktinformasjon, kortdetaljer osv.). Men mer betydelig, den logger interaksjonene brukere har med ChatGPT. Som oppgitt i en FAQ , disse dataene kan gjennomgås av OpenAI-ansatte og brukes til å trene fremtidige versjoner av modellen. Gitt de intime spørsmålene folk stiller ChatGPT, ved å bruke boten som terapeut eller lege, betyr dette at selskapet samler inn alle slags sensitive data.

I det minste noen av disse dataene kan ha blitt samlet inn fra barn, siden OpenAIs policy sier at den «ikke bevisst samler inn personlig informasjon fra barn under 13 år», er det ingen streng alderskontroll. Dette stemmer dårlig med EUs regler, som forbyr innsamling av data fra personer under 13 år og (i noen land) krever samtykke fra foreldre for barn under 16 år. På utdatasiden sa GPDP at ChatGPTs mangel på aldersfiltre avslører mindreårige a "absolutt utilstrekkelige svar sammenlignet med deres grad av utvikling og selvbevissthet". 

Falsk informasjon

Også ChatGPTs tilbøyelighet til gi falsk informasjon kan være et problem. GDPR-regelverket tilsier at alle personopplysninger skal være nøyaktige, noe GPDP fremhevet i sin kunngjøring. Avhengig av hvordan det kommer definite, kan stave problemer for de fleste AI-tekstgeneratorer, som er utsatt for " hallusinasjoner “: En fin bransjebetegnelse for faktisk uriktige eller irrelevante svar på et spørsmål. Dette har allerede sett noen reelle konsekvenser andre steder, slik en australsk regional ordfører har truet med å saksøke OpenAI for ærekrenkelse etter at ChatGPT feilaktig hevdet at han hadde sonet en fengselsstraff for korrupsjon.

ChatGPTs popularitet og nåværende AI-markedsdominans gjør det til et spesielt attraktivt mål, men det er ingen grunn til at dets konkurrenter og bidragsytere, som Google med Bard eller Microsoft med Azure AI basert på OpenAI, ikke trenger å bli undersøkt. Før ChatGPT forbød Italia chatbot-plattformen replika for innsamling av informasjon om mindreårige og har så langt vært forbudt. 

Mens GDPR er et kraftig sett med lover, ble det ikke laget for å løse spesifikke AI-problemer. Regler det , imidlertid kan de være i horisonten. 

Lov om kunstig intelligens

I 2021 presenterte EU sitt første utkast tilArtificial Intelligence Act (AIA) , lovgivning som vil fungere sammen med GDPR. Loven regulerer AI-verktøy basert på deres opplevde risiko, fra "minimal" (ting som spamfiltre) til "høy" (AI-verktøy for rettshåndhevelse eller utdanning) eller "uakseptabel" og derfor forbudt (som et sosialt kredittsystem). Etter eksplosjonen av store språkmodeller som ChatGPT i fjor, prøver lovgivere nå å legge til regler for «kjernemodeller» og «General Purpose Artificial Intelligence (GPAI)-systemer» – to termer for intelligenssystemer kunstig skala inkludert LLM – og potensielt klassifiseres som høyrisikotjenester.

EU-lovgivere har oppnådd en foreløpig avtale om AI-loven den 27. april. En kommisjon skal stemme over utkastet 11. mai, og det endelige forslaget ventes i midten av juni. Derfor må Det europeiske råd, parlamentet og kommisjonen løse eventuelle gjenværende tvister før loven implementeres. Hvis alt går på skinner, kan det bli vedtatt innen andre halvdel av 2024, litt bak målet offisielt av det europeiske valget i mai 2024.

OpenAI har fortsatt mål å nå. Det er frem til 30. september å opprette en strengere aldersgrense for å holde under 13 år ute og kreve samtykke fra foreldre for eldre mindreårige tenåringer. Hvis det mislykkes, kan det bli blokkert igjen. Men det ga et eksempel på hva Europa anser som akseptabel oppførsel for et AI-selskap, i det minste inntil nye lover er vedtatt.

Relaterte lesninger

Ercole Palmeri

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

Siste artikler

Fordelene med fargeleggingssider for barn - en verden av magi for alle aldre

Å utvikle finmotorikk gjennom fargelegging forbereder barna på mer komplekse ferdigheter som å skrive. Å farge…

2 mai 2024

Fremtiden er her: Hvordan shippingindustrien revolusjonerer den globale økonomien

Marinesektoren er en ekte global økonomisk makt, som har navigert mot et 150 milliarder marked...

1 mai 2024

Utgivere og OpenAI signerer avtaler for å regulere flyten av informasjon som behandles av kunstig intelligens

Sist mandag kunngjorde Financial Times en avtale med OpenAI. FT lisensierer sin journalistikk i verdensklasse...

30 april 2024

Nettbetalinger: Her er hvordan strømmetjenester får deg til å betale for alltid

Millioner av mennesker betaler for strømmetjenester og betaler månedlige abonnementsavgifter. Det er vanlig oppfatning at du...

29 april 2024