Artikuj

Rregullimi i AI: 3 ekspertë shpjegojnë pse është e vështirë për t'u bërë dhe e rëndësishme për të bërë mirë

Sistemet e reja të fuqishme të AI mund të përforcojnë mashtrimin dhe dezinformimin, duke çuar në thirrje të përhapura për rregullimin e qeverisë. Por ta bësh këtë është më e lehtë të thuhet sesa të bëhet dhe mund të ketë pasoja të padëshiruara

Koha e parashikuar e leximit: 11 minuti

Jepja asaj foto të rreme i Donald Trump i arrestuar nga oficerët e policisë së qytetit të Nju Jorkut në një chatbot që përshkruan një të tillë shkencëtar kompjuteri shumë i gjallë si vdiq tragjikisht , aftësia e gjeneratës së re të sistemeve inteligjencës artificiale nxitja gjeneruese për të krijuar tekste dhe imazhe bindëse, por fiktive, po ndez alarme për mashtrimin dhe dezinformimin steroid. Në të vërtetë, më 29 mars 2023, një grup studiuesish të AI dhe figura të industrisë i kërkuan industrisë të pezullonte trajnimin e mëtejshëm mbi teknologjitë më të fundit të AI ose, duke e ndaluar këtë, qeveritë të "impononin një moratorium".

Gjeneruesit e imazhit si PLLAKA , Mesi i udhëtimit e Difuzion i qëndrueshëm dhe gjeneruesit e përmbajtjes si p.sh rapsod , Biseda GPT , Chinchilla e Thirrjet – tani janë të disponueshme për miliona njerëz dhe nuk kërkojnë njohuri teknike për t'u përdorur.

Duke pasur parasysh peizazhin e shpalosur të kompanive të teknologjisë që vendosin sisteme AI dhe i testojnë ato në publik, politikëbërësit duhet të pyesin veten nëse dhe si të rregullojnë teknologjinë në zhvillim. Biseda u kërkoi tre ekspertëve të politikave të teknologjisë të shpjegonin pse rregullimi i AI është një sfidë e tillë dhe pse është kaq e rëndësishme për ta bërë atë siç duhet.

Të metat njerëzore dhe një objektiv në lëvizje

S. Shyam Sundar, profesor i efekteve multimediale dhe drejtor, Qendra për AI me përgjegjësi shoqërore, Penn State

Arsyeja për të rregulluar AI nuk është sepse teknologjia është jashtë kontrollit, por sepse imagjinata njerëzore është jashtë proporcionit. Mbulimi dërrmues mediatik ka nxitur besime irracionale rreth aftësive dhe ndërgjegjes së AI. Këto besime bazohen në " paragjykimi i automatizimit ” ose në tendencën për të lënë vigjilencën tonë kur makinat kryejnë një detyrë. Një shembull është vigjilenca e reduktuar midis pilotëve kur avioni i tyre po fluturon me autopilot.

Studime të shumta në laboratorin tim kanë treguar se kur një makinë, në vend të një njeriu, identifikohet si burimi i ndërveprimit, ajo shkakton një shkurtore mendore në mendjet e përdoruesve që ne e quajmë "heuristikë makine". " . Ky stenografi është besimi se makinat janë të sakta, objektive, të paanshme, të pagabueshme etj. Ai mjegullon gjykimin e përdoruesit dhe bën që përdoruesi t'u besojë tepër makinave. Megjithatë, thjesht zhgënjimi i njerëzve për pagabueshmërinë e AI nuk është i mjaftueshëm, sepse njerëzit dihet se nënndërgjegjeshëm supozojnë aftësi edhe kur teknologjia nuk e garanton atë.

Hulumtimet kanë treguar gjithashtu se njerëzit i trajtojnë kompjuterët si qenie sociale kur makineritë tregojnë edhe shenjat më të vogla të njerëzimit, siç është përdorimi i gjuhës bisedore. Në këto raste, njerëzit zbatojnë rregullat shoqërore të ndërveprimit njerëzor, si mirësjellja dhe reciprociteti. Pra, kur kompjuterët duken të ndjeshëm, njerëzit priren t'u besojnë atyre verbërisht. Rregullimi është i nevojshëm për të siguruar që produktet e AI e meritojnë këtë besim dhe nuk e shfrytëzojnë atë.

AI paraqet një sfidë unike sepse, ndryshe nga sistemet tradicionale inxhinierike, projektuesit nuk mund të jenë të sigurt se si do të funksionojnë sistemet e AI. Kur një automobil tradicional doli nga fabrika, inxhinierët e dinin saktësisht se si do të funksiononte. Por me makina vetëdrejtuese, inxhinierë ata kurrë nuk mund të jenë të sigurt se si do të sillen në situata të reja .

Vështirësi në kontrollin e inovacionit

Kohët e fundit, mijëra njerëz në mbarë botën janë habitur me atë që prodhojnë modelet e mëdha gjeneruese të AI si GPT-4 dhe DALL-E 2 në përgjigje të sugjerimeve të tyre. Asnjë nga inxhinierët e përfshirë në zhvillimin e këtyre modeleve të AI nuk mund t'ju tregojë saktësisht se çfarë do të prodhojnë modelet. Për të komplikuar gjërat, këto modele ndryshojnë dhe evoluojnë me ndërveprim gjithnjë e më të madh.

E gjithë kjo do të thotë se ekziston një potencial i madh për ndezje të gabuara. Prandaj, shumë varet nga mënyra se si zbatohen sistemet e AI dhe çfarë dispozitash për rekurs ekzistojnë kur dëmtohen ndjeshmëritë ose mirëqenia njerëzore. AI është më shumë një infrastrukturë, si një autostradë. Ju mund ta dizajnoni atë për të formuar sjelljet njerëzore në kolektiv, por do t'ju duhen mekanizma për t'u marrë me abuzimet, si shpejtësia dhe ngjarjet e paparashikueshme, si aksidentet.

Zhvilluesit e AI do të duhet gjithashtu të jenë jashtëzakonisht krijues në parashikimin e mënyrave se si sistemi mund të sillet dhe të përpiqen të parashikojnë shkeljet e mundshme të standardeve dhe përgjegjësive sociale. Kjo do të thotë se ka nevojë për korniza rregullatore ose qeverisëse që mbështeten në auditimet periodike dhe shqyrtimin e rezultateve dhe produkteve të AI, megjithëse besoj se këto korniza duhet të pranojnë gjithashtu se projektuesit e sistemit nuk mund të mbahen gjithmonë përgjegjës për incidentet.

Kombinimi i qasjeve "të buta" dhe "të vështira".

Cason Schmit, asistent profesor i shëndetit publik, Universiteti A&M i Teksasit

Rregullimi i inteligjencës artificiale është i ndërlikuar . Për të akorduar mirë AI, duhet së pari defizbuloni AI dhe kuptoni rreziqet dhe përfitimet e pritshme të AI. DefiDorëzimi ligjor i AI është i rëndësishëm për identifikimin e asaj që i nënshtrohet ligjit. Por teknologjitë e AI janë ende në zhvillim, kështu që është e vështirë defipërfundoni një defipërcaktim i qëndrueshëm ligjor.

Kuptimi i rreziqeve dhe përfitimeve të AI është gjithashtu i rëndësishëm. Rregullimi i mirë duhet të maksimizojë përfitimet publike duke minimizuar rreziqet. Megjithatë, aplikacionet e AI janë ende duke u shfaqur, kështu që është e vështirë të dihet ose të parashikohet se cilat mund të jenë rreziqet ose përfitimet e ardhshme. Këto lloje të panjohurash i bëjnë jashtëzakonisht teknologjitë në zhvillim si AI vështirë për t'u rregulluar me ligjet dhe rregulloret tradicionale.

Ligjvënësit janë shpesh shumë i ngadalshëm për t'u përshtatur ndaj mjedisit teknologjik që ndryshon me shpejtësi. Dikush ligjet e reja janë të vjetruara në momentin e lëshimit ose bërë ekzekutiv. Pa ligje të reja, rregullatorë duhet të përdorin ligjet e vjetra në fytyrë probleme të reja . Ndonjëherë kjo çon në barrierat ligjore për përfitime sociale o boshllëqet ligjore për sjelljet e dëmshme .

Ligji i butë

Le "ligj i butë ” janë alternativa ndaj qasjeve legjislative tradicionale të “hard law” që synojnë parandalimin e shkeljeve specifike. Në qasjen e ligjit të butë, një organizatë private themelon rregullat apo standardet për anëtarët e industrisë. Këto mund të ndryshojnë më shpejt se legjislacioni tradicional. Kjo bën duke premtuar ligje të buta për teknologjitë në zhvillim, sepse ato mund të përshtaten shpejt me aplikacionet dhe rreziqet e reja. Megjithatë, Ligjet e buta mund të nënkuptojnë zbatim të butë .

Megan Doerr , Jennifer Wagner e io (Kason Schmit) ne propozojmë një mënyrë të tretë: Copyleft AI me zbatim të besueshëm (CAITE) . Kjo qasje kombinon dy koncepte shumë të ndryshme në pronësinë intelektuale: licencat copyleft e patent troll.

Kopjo licencat e majta

Licencat copyleft ju lejon të përdorni, ripërdorni ose modifikoni lehtësisht përmbajtjen sipas kushteve të një licence, si p.sh. softueri me burim të hapur. Model CAITE përdorin licencat copyleft për t'u kërkuar përdoruesve të AI që të ndjekin udhëzime specifike etike, të tilla si vlerësime transparente të ndikimit të paragjykimeve.

Në modelin tonë, këto licenca transferojnë gjithashtu të drejtën ligjore për të zbatuar shkeljet e licencave tek një palë e tretë e besuar. Kjo krijon një ent përmbarues që ekziston vetëm për të zbatuar standardet etike të AI dhe mund të financohet pjesërisht nga gjobat për sjellje joetike. Ky ent është si një patent troll pasi është private dhe jo qeveritare dhe e mbështet veten duke zbatuar të drejtat ligjore të pronësisë intelektuale që mbledh nga të tjerët. Në këtë rast, në vend që të vrapojë për fitim, subjekti zbaton udhëzimet etike definite në licenca.

Ky model është fleksibël dhe i adaptueshëm për të përmbushur nevojat e një mjedisi gjithnjë në ndryshim të AI. Ai gjithashtu lejon opsione të konsiderueshme të zbatimit si një rregullator tradicional i qeverisë. Në këtë mënyrë, ai kombinon elementët më të mirë të qasjeve të ligjit të fortë dhe të butë për të adresuar sfidat unike të AI.

Katër pyetje kyçe për të bërë

John Villasenor, profesor i inxhinierisë elektrike, ligjit, politikave publike dhe menaxhimit, Universiteti i Kalifornisë, Los Anxhelos

GLI progres i jashtëzakonshëm i kohëve të fundit në gjuhën e madhe AI ​​gjeneruese e bazuar në modele të gjuhës po nxisin kërkesën për të krijuar rregullore të reja specifike për AI. Këtu janë katër pyetje kyçe për t'i bërë vetes:

1) A ka nevojë për rregullore të re specifike për AI? 

Shumë nga rezultatet potencialisht problematike të sistemeve të AI janë adresuar tashmë nga kornizat ekzistuese. Nëse një algoritëm i AI i përdorur nga një bankë për të vlerësuar aplikimet e kredisë çon në vendime diskriminuese racore, ai do të shkelte Aktin e Strehimit të Drejtë. Nëse softueri i AI në një makinë pa shofer shkakton një aksident, ligji për përgjegjësinë e produktit parashikon një kornizë për ndjekjen e mjeteve juridike .

2) Cilat janë rreziqet e rregullimit të një teknologjie me zhvillim të shpejtë bazuar në një fotografi të kohës? 

Një shembull klasik i kësaj është Akti i Komunikimeve të Ruajtura , i cili u miratua në vitin 1986 për të adresuar teknologjitë e komunikimit dixhital të atëhershëm inovativ si emaili. Në miratimin e SCA, Kongresi siguroi dukshëm më pak mbrojtje të privatësisë për emailet më të vjetra se 180 ditë.

Arsyeja ishte se ruajtja e kufizuar nënkuptonte se njerëzit po pastronin vazhdimisht kutitë e tyre hyrëse duke fshirë mesazhe të vjetra për të lënë vend për të reja. Si rezultat, mesazhet e arkivuara për më shumë se 180 ditë u konsideruan më pak të rëndësishme nga pikëpamja e privatësisë. Është e paqartë nëse kjo logjikë ka pasur ndonjëherë kuptim, dhe sigurisht nuk ka kuptim në vitet 20, kur shumica e emaileve tona dhe komunikimeve të tjera dixhitale të arkivuara janë më shumë se gjashtë muaj të vjetra.

Një përgjigje e zakonshme ndaj shqetësimeve në lidhje me rregullimin e teknologjisë bazuar në një pamje të vetme me kalimin e kohës është kjo: Nëse një ligj ose rregullore bëhet i vjetëruar, përditësoni atë. Është më e lehtë të thuhet sesa të bëhet. Shumica e njerëzve pajtohen se SCA u vjetërua dekada më parë. Por për shkak se Kongresi nuk ishte në gjendje të binte në mënyrë specifike se si të rishikohej dispozita 180-ditore, ajo është ende në libra më shumë se një e treta e një shekulli pasi u miratua.

3) Cilat janë pasojat e mundshme të padëshiruara? 

Il Lejo shtetet dhe viktimat të luftojnë ligjin e 2017 mbi trafikimin e seksit në internet ishte një ligj i miratuar në vitin 2018 që ai e rishikoi Neni 230 të Aktit të Desencës së Komunikimit me qëllim të luftimit të trafikimit seksual. Ndërsa ka pak prova që ai ka reduktuar trafikimin e seksit, ai ka pasur një ndikim jashtëzakonisht problematik në një grup të ndryshëm njerëzish: punonjëse seksi që mbështeteshin në faqet e internetit të shkëputura nga FOSTA-SESTA për të shkëmbyer informacione rreth klientëve të rrezikshëm. Ky shembull tregon rëndësinë e hedhjes së një vështrimi të gjerë në efektet e mundshme të rregulloreve të propozuara.

4) Cilat janë implikimet ekonomike dhe gjeopolitike? 

Nëse rregullatorët në SHBA ndërmarrin veprime për të ngadalësuar qëllimisht progresin në AI, ajo thjesht do të shtyjë investimet dhe inovacionin - dhe si rezultat krijimin e vendeve të punës - diku tjetër. Ndërsa inteligjenca artificiale në zhvillim ngre shumë shqetësime, ajo gjithashtu premton të sjellë përfitime të mëdha në fusha të tilla si udhëzim , mjekësi , prodhim , siguria e transportit , bujqësi , parashikimi meteorologjik , akses në shërbimet ligjore dhe me shume.

Unë besoj se rregulloret e AI, të hartuara duke pasur parasysh katër pyetjet e mësipërme, do të kenë më shumë gjasa të trajtojnë me sukses dëmet e mundshme të AI, ndërkohë që sigurojnë akses në përfitimet e saj.

Ky artikull është shkëputur lirisht nga The Conversation, një organizatë e pavarur lajmesh jofitimprurëse e dedikuar ndaj ndarjes së njohurive të ekspertëve akademikë.

Lexime të ngjashme

BlogInnovazione.it

Buletini i inovacionit
Mos humbisni lajmet më të rëndësishme mbi inovacionin. Regjistrohuni për t'i marrë ato me email.

Artikujt e fundit

Rregullatori antitrust në Mbretërinë e Bashkuar ngre alarmin e BigTech mbi GenAI

CMA e Mbretërisë së Bashkuar ka lëshuar një paralajmërim për sjelljen e Big Tech në tregun e inteligjencës artificiale. Aty…

18 Prill 2024

Casa Green: revolucion energjetik për një të ardhme të qëndrueshme në Itali

Dekreti "Case Green", i formuluar nga Bashkimi Evropian për të rritur efiçencën energjetike të ndërtesave, ka përfunduar procesin e tij legjislativ me…

18 Prill 2024

Tregtia elektronike në Itali në +27% sipas Raportit të ri nga Casaleggio Associati

Prezantohet raporti vjetor i Casaleggio Associati mbi tregtinë elektronike në Itali. Raporti i titulluar “AI-Commerce: kufijtë e tregtisë elektronike me inteligjencën artificiale”.…

17 Prill 2024

Ideja brilante: Bandalux prezanton Airpure®, perden që pastron ajrin

Rezultat i inovacionit të vazhdueshëm teknologjik dhe i përkushtimit ndaj mjedisit dhe mirëqenies së njerëzve. Bandalux prezanton Airpure®, një tendë…

12 Prill 2024