Artikelen

OpenAI en EU-regels voor gegevensbescherming, na Italië komen er meer beperkingen

OpenAI wist positief te reageren op de Italiaanse gegevensautoriteiten en het effectieve verbod van het land opheffen op ChatGPT vorige week, maar zijn strijd tegen de Europese regelgevers is nog lang niet gestreden. 

Geschatte leestijd: 9 minuti

Begin 2023 stuitte de populaire en controversiële ChatGPT-chatbot van OpenAI op een groot juridisch probleem: een effectief verbod in Italië. De Italiaanse gegevensbeschermingsautoriteit (GPDP) heeft OpenAI ervan beschuldigd de EU-regels voor gegevensbescherming te schenden, en het bedrijf heeft ermee ingestemd de toegang tot de dienst in Italië te beperken terwijl het probeert het probleem op te lossen. Op 28 april keerde ChatGPT terug naar het land, waarbij OpenAI de GPDP-problemen lichtjes aanpakte zonder grote wijzigingen aan te brengen in zijn service - een schijnbare overwinning.

Antwoord Italiaanse Privacy Garant

De GPDP bevestigd om de door ChatGPT aangebrachte wijzigingen te "verwelkomen". De juridische problemen van het bedrijf - en die van bedrijven die vergelijkbare chatbots bouwen - zijn waarschijnlijk nog maar net begonnen. Regelgevers in verschillende landen onderzoeken hoe deze AI-tools informatie verzamelen en produceren, daarbij verwijzend naar een reeks zorgen, van bedrijven die ongeautoriseerde trainingsgegevens verzamelen tot de neiging van chatbots om desinformatie te verspreiden. 

Europese Unie en AVG

In de EU handhaven ze de Algemene Verordening Gegevensbescherming (AVG), een van de meest robuuste wettelijke kaders voor privacy ter wereld, waarvan de effecten waarschijnlijk ook buiten Europa voelbaar zullen zijn. Ondertussen werken Europese wetgevers aan een wet die specifiek betrekking heeft op kunstmatige intelligentie, wat waarschijnlijk een nieuw tijdperk van regulering voor systemen zoals ChatGPT inluidt. 

Populariteit van ChatGPT

ChatGPT is een van de meest populaire voorbeelden van generatieve AI, een overkoepelende term voor tools die tekst, afbeeldingen, video en audio produceren op basis van verzoeken van gebruikers. De dienst is naar verluidt een van geworden snelst groeiende consumententoepassingen in de geschiedenis na het bereiken van 100 miljoen maandelijkse actieve gebruikers in slechts twee maanden na de lancering in november 2022 (OpenAI heeft deze cijfers nooit bevestigd). 

Mensen gebruiken het om tekst in verschillende talen te vertalen, te schrijven universitaire essays en code genereren. Maar critici, waaronder toezichthouders, hebben gewezen op de onbetrouwbare uitvoer van ChatGPT, verwarrende auteursrechtkwesties en duistere gegevensbeschermingspraktijken.

Italië was het eerste land dat verhuisde. Op 31 maart benadrukte hij vier manieren waarop OpenAI volgens hem de AVG schond:

  • ChatGPT toestaan ​​onjuiste of misleidende informatie te verstrekken,
  • gebruikers niet op de hoogte stellen van zijn gegevensverzamelingspraktijken,
  • voldoen aan een van de zes mogelijke wettelijke rechtvaardigingsgronden voor gegevensverwerking Persoonlijk e
  • kinderen onder de 13 jaar niet voldoende beperken in het gebruik van de Service. 

Europa en niet-Europa

Geen enkel ander land heeft dergelijke maatregelen genomen. Maar sinds maart hebben minstens drie EU-landen – Duitsland , Frankrijk e Spanje – zijn een eigen onderzoek gestart naar ChatGPT. 

Ondertussen, aan de andere kant van de Atlantische Oceaan, Canada evalueert privacykwesties onder zijn Personal Information Protection and Electronic Documents Act, of PIPEDA. De European Data Protection Board (EDPB) heeft er zelfs een opgericht toegewijde taskforce om het onderzoek te helpen coördineren. En als deze bureaus wijzigingen in OpenAI aanvragen, kunnen ze invloed hebben op hoe de service werkt voor gebruikers over de hele wereld. 

De zorgen van regelgevers kunnen grofweg in twee categorieën worden verdeeld:

  • waar komen de ChatGPT-trainingsgegevens vandaan e
  • hoe OpenAI informatie verstrekt aan zijn gebruikers.

ChatGPT maakt gebruik van OpenAI's GPT-3.5 en GPT-4 grote taalmodellen (LLM's), die zijn getraind op grote hoeveelheden door mensen geproduceerde tekst. OpenAI is voorzichtig met welke trainingstekst het precies gebruikt, maar zegt dat het put uit "een verscheidenheid aan gelicentieerde, gemaakte en openbaar beschikbare gegevensbronnen, die openbaar beschikbare persoonlijke informatie kunnen bevatten".

uitdrukkelijke toestemming

Dit levert potentieel enorme problemen op onder de AVG. De wet is in 2018 van kracht geworden en heeft betrekking op alle diensten die gegevens van EU-burgers verzamelen of verwerken, ongeacht waar de verantwoordelijke organisatie is gevestigd. GDPR-regels vereisen dat bedrijven expliciete toestemming hebben voordat ze persoonlijke gegevens verzamelen, een wettelijke rechtvaardiging hebben waarom ze worden verzameld en transparant zijn over hoe ze worden gebruikt en opgeslagen.

Innovatie nieuwsbrief
Mis het belangrijkste nieuws over innovatie niet. Meld u aan om ze per e-mail te ontvangen.

Europese regelgevers zeggen dat de geheimhouding van OpenAI-trainingsgegevens betekent dat er geen manier is om te bevestigen of de ingevoerde persoonlijke informatie aanvankelijk met toestemming van de gebruiker is verstrekt, en de GPDP voerde specifiek aan dat OpenAI "geen wettelijke basis" had om ze in de eerste plaats te verzamelen. Tot nu toe zijn OpenAI en anderen met weinig onderzoek weggekomen, maar deze verklaring voegt een groot vraagteken toe aan toekomstige inspanningen om gegevens te schrapen.

Recht om vergeten te worden

Dan is er de " recht om te worden vergeten ” van de AVG, waarmee gebruikers bedrijven kunnen verzoeken hun persoonlijke gegevens te corrigeren of volledig te verwijderen. AI openen heeft eerder haar privacybeleid bijgewerkt om dergelijke verzoeken te vergemakkelijken, maar ja, dat is het wel besproken of het technisch mogelijk is om ze te beheren, gezien de complexiteit van het scheiden specifieke gegevens zodra ze in deze grote taalmodellen zijn geplaatst.

OpenAI verzamelt ook informatie rechtstreeks van gebruikers. Zoals elk internetplatform verzamelt het een standaard gebruikersgegevensset (bijv. naam, contactgegevens, kaartgegevens, enz.). Maar wat nog belangrijker is, het registreert de interacties die gebruikers hebben met ChatGPT. Als vermeld in een veelgestelde vraag , kunnen deze gegevens worden beoordeeld door OpenAI-medewerkers en worden ze gebruikt om toekomstige versies van het model te trainen. Gezien de intieme vragen die mensen aan ChatGPT stellen, waarbij de bot als therapeut of arts wordt gebruikt, betekent dit dat het bedrijf allerlei gevoelige gegevens verzamelt.

Ten minste een deel van deze gegevens is mogelijk verzameld van kinderen, want hoewel het beleid van OpenAI stelt dat het "niet bewust persoonlijke informatie verzamelt van kinderen onder de 13 jaar", is er geen strikte leeftijdscontrole. Dit gaat niet goed samen met EU-regels, die het verzamelen van gegevens van mensen onder de 13 jaar verbieden en (in sommige landen) ouderlijke toestemming vereisen voor kinderen onder de 16 jaar. Aan de outputkant zei de GPDP dat het gebrek aan leeftijdsfilters van ChatGPT minderjarigen blootstelt a "absoluut ontoereikende reacties vergeleken met hun mate van ontwikkeling en zelfbewustzijn". 

Valse informatie

Ook de neiging van ChatGPT om valse informatie geven kan een probleem zijn. De GDPR-regelgeving bepaalt dat alle persoonlijke gegevens nauwkeurig moeten zijn, iets wat de GPDP benadrukte in haar aankondiging. Afhankelijk van hoe het komt definite, zou problemen kunnen opleveren voor de meeste AI-tekstgeneratoren, die gevoelig zijn voor " hallucinaties “: Een mooie brancheterm voor eigenlijk onjuiste of irrelevante antwoorden op een vraag. Dit heeft elders al enkele reële gevolgen gehad, zoals een Australische regionale burgemeester heeft gedaan dreigde OpenAI aan te klagen wegens smaad nadat ChatGPT ten onrechte beweerde dat hij een gevangenisstraf had uitgezeten wegens corruptie.

De populariteit van ChatGPT en de huidige dominantie op de AI-markt maken het een bijzonder aantrekkelijk doelwit, maar er is geen reden waarom zijn concurrenten en bijdragers, zoals Google met Bard of Microsoft met zijn Azure AI op basis van OpenAI, niet onder de loep hoeven te worden genomen. Vóór ChatGPT verbood Italië het chatbot-platform Replika voor het verzamelen van informatie over minderjarigen en is tot nu toe verboden gebleven. 

Hoewel de AVG een krachtige reeks wetten is, is deze niet gemaakt om specifieke AI-problemen aan te pakken. Regelt dat , ze kunnen echter aan de horizon verschijnen. 

Wet kunstmatige intelligentie

In 2021 presenteerde de EU haar eerste ontwerp van hetWet Kunstmatige Intelligentie (AIA) , wetgeving die gaat samenwerken met de AVG. De wet reguleert AI-tools op basis van hun waargenomen risico, van "minimaal" (dingen zoals spamfilters) tot "hoog" (AI-tools voor wetshandhaving of onderwijs) of "onaanvaardbaar" en daarom verboden (zoals een sociaal kredietsysteem). Na de explosie van grote taalmodellen zoals ChatGPT vorig jaar, racen wetgevers nu om regels toe te voegen voor "kernmodellen" en "General Purpose Artificial Intelligence (GPAI) -systemen" - twee termen voor intelligentiesystemen kunstmatige schaal inclusief LLM - en mogelijk classificeren als diensten met een hoog risico.

EU wetgevers hebben een voorlopig akkoord bereikt over de AI-wet op 27 april. Een commissie stemt op 11 mei over het ontwerp en het definitieve voorstel wordt medio juni verwacht. Daarom zullen de Europese Raad, het Parlement en de Commissie moeten eventuele resterende geschillen op te lossen voordat de wet wordt ingevoerd. Als alles goed gaat, kan het in de tweede helft van 2024 worden aangenomen, iets achter op de doelstelling officieel van de Europese verkiezingen van mei 2024.

OpenAI heeft nog steeds doelen te bereiken. Er is tot 30 september de tijd om een ​​strengere leeftijdsgrens in te voeren om kinderen onder de 13 jaar buiten de deur te houden en toestemming van de ouders te vereisen voor oudere minderjarige tieners. Als het niet lukt, kan het opnieuw worden geblokkeerd. Maar het was wel een voorbeeld van wat Europa als acceptabel gedrag beschouwt voor een AI-bedrijf, in ieder geval totdat er nieuwe wetten komen.

Gerelateerde lezingen

Ercole Palmeri

Innovatie nieuwsbrief
Mis het belangrijkste nieuws over innovatie niet. Meld u aan om ze per e-mail te ontvangen.

Recente artikelen

Veeam biedt de meest uitgebreide ondersteuning voor ransomware, van bescherming tot respons en herstel

Coveware by Veeam zal responsdiensten op het gebied van cyberafpersingsincidenten blijven leveren. Coveware zal forensische en herstelmogelijkheden bieden...

April 23 2024

Groene en digitale revolutie: hoe voorspellend onderhoud de olie- en gasindustrie transformeert

Voorspellend onderhoud zorgt voor een revolutie in de olie- en gassector, met een innovatieve en proactieve benadering van fabrieksbeheer.…

April 22 2024

De Britse antitrusttoezichthouder slaat BigTech-alarm over GenAI

De Britse CMA heeft een waarschuwing afgegeven over het gedrag van Big Tech op de markt voor kunstmatige intelligentie. Daar…

April 18 2024

Casa Green: energierevolutie voor een duurzame toekomst in Italië

Het "Case Green"-decreet, opgesteld door de Europese Unie om de energie-efficiëntie van gebouwen te verbeteren, heeft zijn wetgevingsproces afgesloten met...

April 18 2024