Članki

Regulacija umetne inteligence: 3 strokovnjaki pojasnjujejo, zakaj je to težko in pomembno, da delamo dobro

Zmogljivi novi sistemi umetne inteligence bi lahko povečali število goljufij in dezinformacij, kar bi povzročilo vsesplošne pozive k državni ureditvi. Toda to je lažje reči kot narediti in lahko ima nenamerne posledice

Predvideni čas branja: 11 min

Daj ji lažne fotografije Donalda Trumpa, ki so ga aretirali newyorški policisti, klepetalnemu robotu opisuje enega računalničar zelo živ, saj je tragično umrl , sposobnost nove generacije sistemov umetna inteligenca generativna težnja po ustvarjanju prepričljivega, a izmišljenega besedila in slik sproža alarme glede goljufij in napačnih informacij o steroidih. Dejansko je 29. marca 2023 skupina raziskovalcev umetne inteligence in predstavnikov industrije pozvala industrijo, naj prekine nadaljnje usposabljanje o najnovejših tehnologijah umetne inteligence ali, razen tega, vlade, naj "uvedejo moratorij".

Generatorji slik, kot so DALL-E , vmesna pot e Stabilna difuzija in generatorji vsebin, kot je npr Bard , ChatGPT , Chinchilla e Klici – so zdaj na voljo milijonom ljudi in za uporabo ne potrebujejo tehničnega znanja.

Glede na razvijajočo se pokrajino tehnoloških podjetij, ki uvajajo sisteme umetne inteligence in jih preizkušajo v javnosti, bi se oblikovalci politik morali vprašati, ali in kako regulirati nastajajočo tehnologijo. The Conversation je prosil tri strokovnjake za tehnološko politiko, naj pojasnijo, zakaj je regulacija umetne inteligence takšen izziv in zakaj je tako pomembno, da jo naredimo pravilno.

Človeške slabosti in premikajoča se tarča

S. Shyam Sundar, profesor multimedijskih učinkov in direktor Centra za družbeno odgovorno umetno inteligenco, Penn State

Razlog za regulacijo umetne inteligence ni v tem, da je tehnologija ušla nadzoru, temveč v tem, da je človeška domišljija nesorazmerna. Izjemna medijska pokritost je spodbudila iracionalna prepričanja o zmogljivostih in zavesti AI. Ta prepričanja temeljijo na " pristranskost avtomatizacije ” ali na težnjo, da popustimo, ko stroji opravljajo nalogo. Primer je zmanjšana pazljivost med piloti ko njihovo letalo leti z avtopilotom.

Številne študije v mojem laboratoriju so pokazale, da ko je stroj in ne človek identificiran kot vir interakcije, sproži miselno bližnjico v glavah uporabnikov, ki jo imenujemo "strojna hevristika". " . Ta stenografija je prepričanje, da so stroji točni, objektivni, nepristranski, nezmotljivi itd. Zamegli uporabnikovo presojo in povzroči, da uporabnik pretirano zaupa strojem. Vendar preprosto razočaranje ljudi o nezmotljivosti umetne inteligence ni dovolj, saj je znano, da ljudje podzavestno domnevajo strokovnost, tudi če tehnologija tega ne upravičuje.

To so pokazale tudi raziskave ljudje obravnavamo računalnike kot družbena bitja ko stroji pokažejo celo najmanjši kanček človečnosti, kot je uporaba pogovornega jezika. V teh primerih ljudje uporabljajo družbena pravila človeške interakcije, kot sta vljudnost in vzajemnost. Torej, ko se zdi, da so računalniki razumni, jim ljudje slepo zaupajo. Uredba je potrebna, da se zagotovi, da si izdelki umetne inteligence zaslužijo to zaupanje in ga ne izkoriščajo.

AI predstavlja edinstven izziv, saj v nasprotju s tradicionalnimi inženirskimi sistemi oblikovalci ne morejo biti prepričani, kako bodo sistemi AI delovali. Ko je tradicionalni avtomobil zapeljal iz tovarne, so inženirji natančno vedeli, kako se bo obnesel. Toda s samovozečimi avtomobili inženirji nikoli ne morejo biti prepričani, kako se bodo obnašali v novih situacijah .

Težave pri nadzoru inovacij

V zadnjem času se je na tisoče ljudi po vsem svetu čudilo, kaj veliki generativni modeli umetne inteligence, kot sta GPT-4 in DALL-E 2, ustvarijo kot odgovor na njihove predloge. Nobeden od inženirjev, vključenih v razvoj teh modelov AI, vam ne more natančno povedati, kaj bodo modeli proizvedli. Da bi zadeve zapletli, se ti modeli spreminjajo in razvijajo z vedno večjo interakcijo.

Vse to pomeni, da obstaja veliko možnosti za neuspešne vžige. Zato je veliko odvisno od tega, kako se izvajajo sistemi umetne inteligence in kakšne so določbe o regresu, ko je prizadeta človeška občutljivost ali dobro počutje. AI je bolj infrastruktura, kot je avtocesta. Lahko ga oblikujete tako, da oblikuje človeško vedenje v kolektivu, vendar boste potrebovali mehanizme za obravnavo zlorab, kot je prehitra vožnja, in nepredvidljivih dogodkov, kot so nesreče.

Razvijalci umetne inteligence bodo morali biti tudi izredno kreativni pri napovedovanju načinov, kako bi se sistem lahko obnašal, in poskušali predvideti morebitne kršitve družbenih standardov in odgovornosti. To pomeni, da obstaja potreba po regulativnih okvirih ali okvirih upravljanja, ki temeljijo na rednih revizijah in pregledu rezultatov in izdelkov umetne inteligence, čeprav verjamem, da bi morali ti okviri tudi priznati, da oblikovalci sistemov ne morejo vedno biti odgovorni za incidente.

Kombinacija »mehkih« in »trdih« pristopov

Cason Schmit, docent za javno zdravje na teksaški univerzi A&M

Regulacija umetne inteligence je zapletena . Če želite dobro prilagoditi AI, morate najprej definish AI in razumeti pričakovana tveganja in koristi AI. DefiLegalizacija umetne inteligence je pomembna za ugotavljanje, kaj je predmet zakona. Toda tehnologije umetne inteligence se še vedno razvijajo, zato je težko defidokončaj enega defistabilna pravna opredelitev.

Pomembno je tudi razumevanje tveganj in koristi umetne inteligence. Dobra zakonodaja bi morala povečati javne koristi in hkrati zmanjšati tveganja. Vendar pa se aplikacije umetne inteligence še vedno pojavljajo, zato je težko vedeti ali napovedati, kakšna bi lahko bila prihodnja tveganja ali koristi. Zaradi teh vrst neznank so nastajajoče tehnologije, kot je umetna inteligenca, izjemno pomembne težko regulirati s tradicionalnimi zakoni in predpisi.

Zakonodajalci so pogosto prepočasi za prilagajanje na hitro spreminjajoče se tehnološko okolje. Nekdo novi zakoni so zastarele v trenutku, ko so izdane oz postal izvršni. Brez novih zakonov, regulatorjev morajo uporabljati stare zakone soočiti se nove težave . Včasih to vodi do pravne ovire za socialni prejemki o pravne vrzeli za škodljivo vedenje .

Mehko pravo

"mehko pravo « so alternativa tradicionalnim »trdim pravnim« zakonodajnim pristopom, namenjenim preprečevanju določenih kršitev. Pri pristopu mehkega prava ustanovi zasebna organizacija pravila ali standardi za člane industrije. Ti se lahko spremenijo hitreje kot tradicionalna zakonodaja. To naredi obetavne mehke zakone za nastajajoče tehnologije, ker se lahko hitro prilagodijo novim aplikacijam in tveganjem. vendar Mehki zakoni lahko pomenijo mehko uveljavljanje .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) predlagamo tretjo pot: Copyleft AI with Trusted Enforcement (CAITE) . Ta pristop združuje dva zelo različna koncepta intelektualne lastnine: licence copyleft e patent troll.

Kopiraj leve licence

Licence copyleft omogočajo enostavno uporabo, ponovno uporabo ali spreminjanje vsebine pod pogoji licence, kot je odprtokodna programska oprema. Model CAITE uporabljati licence copyleft zahtevati, da uporabniki umetne inteligence upoštevajo posebne etične smernice, kot so pregledne ocene vpliva pristranskosti.

V našem modelu te licence prav tako prenesejo zakonsko pravico do uveljavljanja kršitev licence na zaupanja vredno tretjo osebo. To ustvarja izvršilni subjekt, ki obstaja izključno za uveljavljanje etičnih standardov umetne inteligence in se lahko delno financira z denarnimi kaznimi za neetično ravnanje. Ta entiteta je kot a patent troll ker je zasebno in ne vladno in se preživlja z uveljavljanjem zakonitih pravic intelektualne lastnine, ki jih zbira od drugih. V tem primeru subjekt uveljavlja etične smernice, namesto da bi delal za dobiček definite v licencah.

Ta model je prilagodljiv in prilagodljiv za potrebe nenehno spreminjajočega se okolja AI. Omogoča tudi znatne možnosti uveljavljanja, kot tradicionalni vladni regulator. Na ta način združuje najboljše elemente pristopov trdega in mehkega prava za obravnavo edinstvenih izzivov umetne inteligence.

Štiri ključna vprašanja

John Villasenor, profesor elektrotehnike, prava, javne politike in managementa, Univerza v Kaliforniji, Los Angeles

Gli nedavni izjemen napredek v velikem jeziku, generativni AI, ki temelji na modelu, spodbuja povpraševanje po ustvarjanju nove uredbe, specifične za AI. Tu so štiri ključna vprašanja, ki si jih morate zastaviti:

1) Ali obstaja potreba po novi posebni uredbi za umetno inteligenco? 

Veliko potencialno problematičnih rezultatov sistemov umetne inteligence že obravnavajo obstoječi okviri. Če algoritem umetne inteligence, ki ga banka uporablja za ocenjevanje vlog za posojila, privede do rasno diskriminatornih odločitev o posojilih, bi to pomenilo kršitev zakona o pravičnem stanovanju.Če programska oprema umetne inteligence v avtomobilu brez voznika povzroči nesrečo, zakon o odgovornosti za izdelke določa okvir za uveljavljanje pravnih sredstev .

2) Kakšna so tveganja regulacije hitro razvijajoče se tehnologije, ki temelji na posnetku časa? 

Klasičen primer tega je Zakon o shranjenih komunikacijah , ki je bil sprejet leta 1986 za obravnavo takrat inovativnih digitalnih komunikacijskih tehnologij, kot je elektronska pošta. Z uveljavitvijo SCA je kongres zagotovil znatno manjšo zaščito zasebnosti za e-pošto, starejšo od 180 dni.

Utemeljitev je bila, da omejen prostor za shranjevanje pomeni, da so ljudje nenehno čistili svoje mape »Prejeto« z brisanjem starejših sporočil, da bi naredili prostor za nova. Posledično so bila sporočila, arhivirana več kot 180 dni, ocenjena kot manj pomembna z vidika zasebnosti. Ni jasno, ali je bila ta logika kdaj smiselna, prav gotovo pa ni smiselna v dvajsetih letih prejšnjega stoletja, ko je večina naših e-poštnih sporočil in drugih arhiviranih digitalnih komunikacij starih več kot šest mesecev.

Pogost odgovor na pomisleke glede regulacije tehnologije, ki temelji na enem samem posnetku skozi čas, je tale: če zakon ali predpis zastara, ga posodobite. To je lažje reči kot narediti. Večina ljudi se strinja, da je SCA zastarel že pred desetletji. A ker se kongres ni mogel posebej dogovoriti o tem, kako revidirati 180-dnevno določbo, je še vedno v knjigah več kot tretjino stoletja po tem, ko je bila sprejeta.

3) Kakšne so morebitne nenamerne posledice? 

Il Dovolite državam in žrtvam, da se borijo proti spletnemu zakonu o spolni trgovini iz leta 2017 to je bil zakon, sprejet leta 2018, ki ga je revidiral 230. člen zakona o spodobnosti v komunikacijah z namenom boja proti trgovini z ljudmi za spolne namene. Čeprav je malo dokazov, da je zmanjšal trgovino z ljudmi za spolne namene, je imel izjemno problematičen vpliv na drugo skupino ljudi: spolne delavke, ki so se za izmenjavo informacij o nevarnih strankah zanašale na spletna mesta, ki jih je FOSTA-SESTA odstranila. Ta primer kaže na pomen širokega pregleda morebitnih učinkov predlaganih predpisov.

4) Kakšne so gospodarske in geopolitične posledice? 

Če regulatorji v ZDA ukrepajo, da bi namerno upočasnili napredek na področju umetne inteligence, bodo to preprosto potisnilo naložbe in inovacije – in posledično ustvarjanje delovnih mest – drugam. Medtem ko nastajajoča umetna inteligenca vzbuja veliko skrbi, obeta tudi velike koristi na področjih, kot so navodilo , Zdravilo , proizvodnja , prometna varnost , Kmetijstvo , vremenske napovedi , dostop do pravnih storitev in več.

Verjamem, da bodo predpisi o umetni inteligenci, pripravljeni ob upoštevanju zgornjih štirih vprašanj, verjetneje uspešno obravnavali potencialno škodo umetne inteligence, hkrati pa zagotovili dostop do njenih koristi.

Ta članek je brezplačno povzet iz The Conversation, neodvisne neprofitne novičarske organizacije, namenjene izmenjavi znanja akademskih strokovnjakov.

Sorodna branja

BlogInnovazione.it

Glasilo o inovacijah
Ne zamudite najpomembnejših novic o inovacijah. Prijavite se, če jih želite prejemati po e-pošti.

Nedavni članki

Založniki in OpenAI podpisujejo sporazume za urejanje pretoka informacij, ki jih obdeluje umetna inteligenca

Prejšnji ponedeljek je Financial Times objavil dogovor z OpenAI. FT licencira svoje vrhunsko novinarstvo ...

April 30 2024

Spletna plačila: Evo, kako vam storitve pretakanja omogočajo večno plačevanje

Milijoni ljudi plačujejo storitve pretakanja in plačujejo mesečne naročnine. Splošno mnenje je, da si…

April 29 2024

Veeam ponuja najobsežnejšo podporo za izsiljevalsko programsko opremo, od zaščite do odziva in obnovitve

Coveware by Veeam bo še naprej zagotavljal storitve odzivanja na incidente kibernetskega izsiljevanja. Coveware bo nudil forenziko in zmogljivosti sanacije ...

April 23 2024

Zelena in digitalna revolucija: kako predvideno vzdrževanje preoblikuje naftno in plinsko industrijo

Prediktivno vzdrževanje revolucionira sektor nafte in plina z inovativnim in proaktivnim pristopom k upravljanju obratov.…

April 22 2024