tovar

Regulácia AI: 3 odborníci vysvetľujú, prečo je ťažké a dôležité robiť to dobre

Výkonné nové systémy AI by mohli zosilniť podvody a dezinformácie, čo by viedlo k rozsiahlym výzvam na vládnu reguláciu. Ale to sa ľahšie povie, ako urobí a mohlo by to mať nezamýšľané následky

Odhadovaný čas čítania: 11 minúty

Daj jej falošné fotografie Donalda Trumpa zatknutého newyorskou políciou chatbotovi, ktorý jedného opisuje počítačový vedec veľmi živý, pretože zomrel tragicky , schopnosti novej generácie systémov umelá inteligencia generatívna snaha vytvárať presvedčivé, ale fiktívne texty a obrázky vyvoláva poplach o podvodoch so steroidmi a dezinformáciách. V skutočnosti 29. marca 2023 skupina výskumníkov AI a predstaviteľov priemyslu naliehala na priemysel, aby prerušil ďalšie školenia o najnovších technológiách AI, alebo, ak to nebude možné, vlády, aby „uvalili moratórium“.

Generátory obrázkov ako DALL-E , Stredná cesta e Stabilná difúzia a generátory obsahu ako napr Bard , ChatGPT , činčila e hovory – sú teraz dostupné miliónom ľudí a na používanie si nevyžadujú žiadne technické znalosti.

Vzhľadom na rozvíjajúce sa prostredie technologických spoločností, ktoré nasadzujú systémy AI a testujú ich na verejnosti, by si tvorcovia politiky mali položiť otázku, či a ako regulovať vznikajúcu technológiu. The Conversation požiadal troch expertov na technologickú politiku, aby vysvetlili, prečo je regulácia AI taká výzva a prečo je také dôležité, aby bola vykonaná správne.

Ľudské slabosti a pohyblivý cieľ

S. Shyam Sundar, profesor multimediálnych efektov a riaditeľ, Center for Socially Responsible AI, Penn State

Dôvodom na reguláciu AI nie je to, že by sa technológia vymkla kontrole, ale preto, že ľudská predstavivosť je neprimeraná. Ohromujúce mediálne pokrytie podporilo iracionálne presvedčenia o schopnostiach a vedomí AI. Tieto presvedčenia sú založené na „ zaujatosť automatizácie “ alebo na tendenciu poľaviť v ostražitosti, keď stroje vykonávajú nejakú úlohu. Príkladom je znížená ostražitosť medzi pilotmi keď ich lietadlo letí na autopilota.

Početné štúdie v mojom laboratóriu ukázali, že keď sa ako zdroj interakcie identifikuje skôr stroj ako človek, spustí sa mentálna skratka v mysliach používateľov, ktorú nazývame „strojová heuristika“. " . Táto skratka je presvedčenie, že stroje sú presné, objektívne, nestranné, neomylné atď. Zahmlieva úsudok používateľa a spôsobuje, že používateľ nadmerne dôveruje strojom. Jednoduché sklamanie ľudí z neomylnosti AI však nestačí, pretože je známe, že ľudia podvedome predpokladajú odbornosť, aj keď to technológia nezaručuje.

Ukázal to aj výskum ľudia sa k počítačom správajú ako k spoločenským bytostiam keď stroje prejavia čo i len najmenší náznak ľudskosti, ako napríklad používanie konverzačného jazyka. V týchto prípadoch ľudia uplatňujú sociálne pravidlá ľudskej interakcie, ako je zdvorilosť a reciprocita. Takže keď sa počítače zdajú byť vnímavé, ľudia im zvyknú slepo dôverovať. Regulácia je potrebná, aby sa zabezpečilo, že produkty AI si túto dôveru zaslúžia a nebudú ju zneužívať.

Umelá inteligencia predstavuje jedinečnú výzvu, pretože na rozdiel od tradičných inžinierskych systémov si dizajnéri nemôžu byť istí, ako budú systémy umelej inteligencie fungovať. Keď tradičný automobil vyšiel z továrne, inžinieri presne vedeli, ako bude fungovať. Ale so samoriadiacimi autami, inžinieri nikdy si nemôžu byť istí, ako sa zachovajú v nových situáciách .

Ťažkosti s kontrolou inovácií

V poslednej dobe tisíce ľudí na celom svete žasli nad tým, aké veľké generatívne modely AI ako GPT-4 a DALL-E 2 produkujú v reakcii na ich návrhy. Žiadny z inžinierov podieľajúcich sa na vývoji týchto modelov AI vám presne nevedel povedať, čo budú modely produkovať. Aby sa veci skomplikovali, tieto modely sa menia a vyvíjajú so stále väčšou interakciou.

To všetko znamená, že existuje veľký potenciál pre zlyhanie zapaľovania. Preto veľa závisí od toho, ako sa implementujú systémy umelej inteligencie a aké sú zavedené opatrenia na nápravu, keď je poškodená ľudská citlivosť alebo blaho. AI je skôr infraštruktúra, ako diaľnica. Môžete ho navrhnúť tak, aby formoval ľudské správanie v kolektíve, ale budete potrebovať mechanizmy, ktoré sa vyrovnajú so zneužívaním, ako je prekročenie rýchlosti, a nepredvídateľné udalosti, ako sú nehody.

Vývojári AI budú tiež musieť byť mimoriadne kreatívni pri predpovedaní spôsobov, akými by sa systém mohol správať, a pokúsiť sa predvídať potenciálne porušenia sociálnych noriem a povinností. To znamená, že sú potrebné regulačné alebo riadiace rámce, ktoré sa opierajú o pravidelné audity a kontrolu výsledkov a produktov AI, aj keď sa domnievam, že tieto rámce by mali tiež uznať, že dizajnéri systémov nemôžu byť vždy braní na zodpovednosť za incidenty.

Kombinácia „mäkkých“ a „tvrdých“ prístupov

Cason Schmit, odborný asistent verejného zdravia, Texas A&M University

Regulácia umelej inteligencie je komplikovaná . Ak chcete dobre vyladiť AI, musíte to najprv urobiť defiosvojiť si AI a pochopiť očakávané riziká a výhody AI. DefiLegalizácia AI je dôležitá na identifikáciu toho, čo podlieha zákonu. Ale technológie AI sa stále vyvíjajú, takže je to ťažké defidokončiť jednu defistabilná právna definícia.

Dôležité je aj pochopenie rizík a výhod AI. Dobrá regulácia by mala maximalizovať verejný prospech a zároveň minimalizovať riziká. Aplikácie AI sa však stále objavujú, takže je ťažké vedieť alebo predvídať, aké by mohli byť budúce riziká alebo výhody. Vďaka týmto typom neznámych sú nové technológie, ako je AI, extrémne ťažko regulovateľné s tradičnými zákonmi a nariadeniami.

Zákonodarcovia sú často príliš pomalé na prispôsobenie rýchlo sa meniacemu technologickému prostrediu. Niekto nové zákony sú zastarané v čase ich vydania resp menovaný výkonným. Bez nových zákonov, regulátorov musia používať staré zákony čeliť nové problémy . Niekedy to vedie k právne prekážky za sociálne benefity o právne medzery za škodlivé správanie .

Soft Law

mäkký zákon “ sú alternatívou k tradičným „tvrdým“ legislatívnym prístupom zameraným na predchádzanie konkrétnym porušeniam. V prístupe soft law zakladá súkromná organizácia pravidlá alebo normy pre členov priemyslu. Tie sa môžu meniť rýchlejšie ako tradičná legislatíva. Ktorá robí sľubné mäkké zákony pre vznikajúce technológie, pretože sa dokážu rýchlo prispôsobiť novým aplikáciám a rizikám. však Mäkké zákony môžu znamenať mäkké presadzovanie .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) navrhujeme tretí spôsob: Copyleft AI s Trusted Enforcement (CAITE) . Tento prístup kombinuje dva veľmi odlišné koncepty duševného vlastníctva: licencie copyleft e patent troll.

Kopírovať ľavé licencie

Licencie copyleft umožňujú jednoduché používanie, opätovné použitie alebo úpravu obsahu v súlade s podmienkami licencie, ako je napríklad softvér s otvoreným zdrojovým kódom. Model CAITE používať licencie copyleft vyžadovať od používateľov AI, aby dodržiavali konkrétne etické usmernenia, ako sú transparentné hodnotenia vplyvu zaujatosti.

V našom modeli tieto licencie prenášajú aj zákonné právo vymáhať porušenie licencií na dôveryhodnú tretiu stranu. To vytvára subjekt presadzovania práva, ktorý existuje výlučne na presadzovanie etických noriem AI a môže byť čiastočne financovaný z pokút za neetické správanie. Táto entita je ako a patent troll keďže je skôr súkromný ako vládny a podporuje sa presadzovaním zákonných práv duševného vlastníctva, ktoré získava od iných. V tomto prípade účtovná jednotka presadzuje etické usmernenia, nie beh za účelom dosiahnutia zisku definite v licenciách.

Tento model je flexibilný a prispôsobiteľný, aby vyhovoval potrebám neustále sa meniaceho prostredia AI. Umožňuje tiež značné možnosti presadzovania, ako je tradičný vládny regulátor. Týmto spôsobom spája najlepšie prvky prístupov tvrdého a mäkkého práva na riešenie jedinečných výziev AI.

Štyri kľúčové otázky, ktoré si treba položiť

John Villasenor, profesor elektrotechniky, práva, verejnej politiky a manažmentu, Kalifornská univerzita, Los Angeles

The nedávny mimoriadny pokrok vo veľkých jazykových modeloch generatívne AI podnecujú dopyt po vytvorení novej regulácie špecifickej pre AI. Tu sú štyri kľúčové otázky, ktoré by ste si mali položiť:

1) Je potrebná nová špecifická regulácia pre AI? 

Mnohé z potenciálne problematických výsledkov systémov AI už riešia existujúce rámce. Ak algoritmus AI, ktorý banka používa na vyhodnotenie žiadostí o úver, vedie k rasovo diskriminačným rozhodnutiam o pôžičkách, porušuje by to zákon o spravodlivom bývaní. Ak softvér AI v aute bez vodiča spôsobí nehodu, zákon o zodpovednosti za výrobok stanovuje rámec pre uplatňovanie nápravných opatrení .

2) Aké sú riziká regulácie rýchlo sa vyvíjajúcej technológie založenej na časovom prehľade? 

Klasickým príkladom toho je Zákon o uložených komunikáciách , ktorý bol uzákonený v roku 1986 s cieľom riešiť vtedy inovatívne digitálne komunikačné technológie, ako je e-mail. Pri uzákonení SCA Kongres poskytol výrazne menšiu ochranu súkromia pre e-maily staršie ako 180 dní.

Dôvodom bolo, že obmedzené úložisko znamenalo, že ľudia neustále čistili svoje doručené správy odstraňovaním starších správ, aby uvoľnili miesto pre nové. V dôsledku toho sa správy archivované viac ako 180 dní považovali z hľadiska ochrany súkromia za menej dôležité. Nie je jasné, či táto logika niekedy dávala zmysel, a určite to nedáva zmysel v 20. rokoch minulého storočia, keď je väčšina našich e-mailov a inej archivovanej digitálnej komunikácie stará viac ako šesť mesiacov.

Bežnou reakciou na obavy z regulácie technológie založenej na jedinom prehľade v priebehu času je toto: Ak sa zákon alebo nariadenie stane zastaraným, aktualizujte ho. Ľahšie sa to povie, ako urobí. Väčšina ľudí súhlasí s tým, že SCA sa stala zastaranou pred desiatkami rokov. Keďže sa však Kongres nedokázal konkrétne dohodnúť na tom, ako revidovať ustanovenie o 180-dňovej lehote, stále sa o ňom hovorí viac ako tretinu storočia po jeho uzákonení.

3) Aké sú potenciálne neúmyselné dôsledky? 

Il Umožnite štátom a obetiam bojovať proti zákonu o obchodovaní so sexom na internete z roku 2017 bol to zákon prijatý v roku 2018, ktorý revidoval § 230 zákona o komunikačnej slušnosti s cieľom bojovať proti obchodovaniu so sexom. Hoci existuje len málo dôkazov o tom, že obmedzil obchodovanie so sexom, mal a mimoriadne problematický vplyv na inej skupine ľudí: sexuálne pracovníčky, ktoré sa spoliehali na webové stránky stiahnuté offline spoločnosťou FOSTA-SESTA na výmenu informácií o nebezpečných klientoch. Tento príklad ukazuje dôležitosť širokého pohľadu na potenciálne účinky navrhovaných nariadení.

4) Aké sú ekonomické a geopolitické dôsledky? 

Ak regulačné orgány v USA prijmú opatrenia na zámerné spomalenie pokroku v oblasti AI, jednoducho to posunie investície a inovácie – a výslednú tvorbu pracovných miest – inam. Zatiaľ čo vznikajúca AI vyvoláva mnohé obavy, zároveň sľubuje, že prinesie obrovské výhody v oblastiach ako napr inštrukcia , medicína , výroba , bezpečnosť dopravy , poľnohospodárstva , predchádzajúce meteorologické mapy , prístup k právnym službám a viac.

Domnievam sa, že nariadenia o umelej inteligencii navrhnuté s ohľadom na vyššie uvedené štyri otázky budú s väčšou pravdepodobnosťou úspešne riešiť potenciálne škody spôsobené umelou inteligenciou a zároveň zabezpečiť prístup k jej výhodám.

Tento článok je voľne prevzatý z The Conversation, nezávislej neziskovej spravodajskej organizácie, ktorá sa venuje zdieľaniu poznatkov akademických odborníkov.

Súvisiace čítania

BlogInnovazione.it

Inovačný bulletin
Nenechajte si ujsť najdôležitejšie novinky o inováciách. Prihláste sa na ich odber e-mailom.

Nedávne články

Budúcnosť je tu: Ako námorný priemysel prináša revolúciu do globálnej ekonomiky

Námorný sektor je skutočnou globálnou ekonomickou veľmocou, ktorá smerovala k 150 miliardovému trhu...

1 mája 2024

Vydavatelia a OpenAI podpisujú dohody o regulácii toku informácií spracovávaných umelou inteligenciou

Minulý pondelok Financial Times oznámili dohodu s OpenAI. FT licencuje svoju žurnalistiku svetovej triedy…

Apríla 30 2024

Online platby: Takto budete vďaka streamovacím službám platiť navždy

Milióny ľudí platia za streamovacie služby a platia mesačné predplatné. Je bežný názor, že si…

Apríla 29 2024

Veeam ponúka najkomplexnejšiu podporu pre ransomvér, od ochrany až po reakciu a obnovu

Coveware od Veeam bude aj naďalej poskytovať služby reakcie na incidenty v oblasti kybernetického vydierania. Coveware ponúkne forenzné a sanačné schopnosti…

Apríla 23 2024