Cikkek

A mesterséges intelligencia szabályozása: 3 szakértő elmagyarázza, miért nehéz és miért fontos jól csinálni

A nagy teljesítményű új mesterséges intelligencia-rendszerek felerősíthetik a csalást és a félretájékoztatást, ami széleskörű kormányzati szabályozási felhívásokhoz vezet. De ezt könnyebb mondani, mint megtenni, és nemkívánatos következményei lehetnek

Becsült olvasási idő: 11 minuti

lap hamis fényképek Donald Trumpot a New York-i rendőrök letartóztatták egy chatbotnak, amelyben leírták az egyiket informatikus nagyon is él, mint tragikusan meghalt , az új generációs rendszerek képessége mesterséges intelligencia A lenyűgöző, de fiktív szövegek és képek létrehozására irányuló generatív törekvés riasztásokat vált ki a szteroidcsalásról és a félretájékoztatásról. Valójában 29. március 2023-én mesterségesintelligencia-kutatók és iparági szereplők egy csoportja sürgette az iparágat, hogy függessze fel a legújabb mesterségesintelligencia-technológiákkal kapcsolatos továbbképzéseket, vagy – ennek hiányában – a kormányokat „moratórium bevezetésére”.

A képgenerátorok kedvelik DALL-E , középút e Stabil diffúzió és tartalomgenerátorok, mint pl Dalnok , ChatGPT , Csincsilla e Láma – ma már több millió ember számára elérhetőek, és nem igényelnek műszaki ismereteket.

Tekintettel a mesterséges intelligencia-rendszereket üzembe helyező és a nyilvánosság előtt tesztelő technológiai vállalatok körvonalaira, a döntéshozóknak fel kell tenniük a kérdést, hogy szabályozzák-e és hogyan szabályozzák a feltörekvő technológiát. A Conversation három technológiai szakpolitikai szakértőt kért fel arra, hogy magyarázzák el, miért olyan kihívás az AI szabályozása, és miért olyan fontos, hogy helyesen hozzuk létre.

Emberi bolondok és mozgó célpont

S. Shyam Sundar, a multimédiás effektusok professzora és igazgatója, Center for Socially Responsible AI, Penn State

A mesterséges intelligencia szabályozásának nem az az oka, hogy a technológia nem ellenőrizhető, hanem az, hogy az emberi képzelet nem áll arányban. A hatalmas médiavisszhang irracionális hiedelmeket szított az AI képességeivel és tudatosságával kapcsolatban. Ezek a hiedelmek azon alapulnak, hogy " automatizálási torzítás ” vagy arra a hajlamra, hogy cserbenhagyjuk őrségünket, amikor a gépek valamilyen feladatot hajtanak végre. Egy példa az a pilóták éberségének csökkenése amikor a gépük robotpilótán repül.

A laboratóriumomban végzett számos tanulmány kimutatta, hogy amikor egy gépet azonosítanak az interakció forrásaként, nem pedig egy embert, az egy mentális rövidzárlatot indít el a felhasználók elméjében, amit "gépheurisztikának" nevezünk. " . Ez a rövidítés az a meggyőződés, hogy a gépek pontosak, objektívek, pártatlanok, tévedhetetlenek stb. Elhomályosítja a felhasználó ítélőképességét, és arra készteti a felhasználót, hogy túlzottan megbízzon a gépekben. Nem elég azonban egyszerűen kiábrándítani az embereket a mesterséges intelligencia tévedhetetlenségéből, mert köztudott, hogy az emberek tudat alatt még akkor is jártasságot vállalnak, ha a technológia ezt nem indokolja.

A kutatások azt is kimutatták az emberek társas lényként kezelik a számítógépeket amikor a gépek az emberiség legcsekélyebb jelét is mutatják, például a társalgási nyelvhasználatot. Ezekben az esetekben az emberek az emberi interakció társadalmi szabályait alkalmazzák, például az udvariasságot és a kölcsönösséget. Tehát amikor a számítógépek érzőnek tűnnek, az emberek hajlamosak vakon megbízni bennük. Szabályozásra van szükség annak biztosítására, hogy az AI-termékek megérdemeljék ezt a bizalmat, és ne használják ki azt.

A mesterséges intelligencia egyedülálló kihívást jelent, mivel a hagyományos mérnöki rendszerekkel ellentétben a tervezők nem lehetnek biztosak abban, hogy az AI-rendszerek hogyan fognak működni. Amikor egy hagyományos autó kigurult a gyárból, a mérnökök pontosan tudták, hogyan fog teljesíteni. De önvezető autókkal, mérnökökkel soha nem lehetnek biztosak abban, hogyan fognak viselkedni új helyzetekben .

Az innováció ellenőrzésének nehézségei

Az utóbbi időben világszerte emberek ezrei csodálkoztak azon, hogy az olyan nagy generatív AI modellek, mint a GPT-4 és a DALL-E 2 milyen eredményeket produkálnak javaslataikra válaszul. Az AI modellek fejlesztésében részt vevő mérnökök egyike sem tudta pontosan megmondani, hogy a modellek pontosan mit fognak produkálni. A dolgokat bonyolítja, hogy ezek a modellek egyre nagyobb interakcióval változnak és fejlődnek.

Mindez azt jelenti, hogy nagy a gyújtáskimaradás lehetősége. Ezért sok múlik azon, hogyan valósítják meg az AI-rendszereket, és milyen rendelkezések vonatkoznak a jogorvoslatra, ha az emberi érzékenység vagy jólét sérül. Az AI inkább egy infrastruktúra, például egy autópálya. Megtervezheti úgy, hogy alakítsa az emberi viselkedést a közösségben, de szükség lesz olyan mechanizmusokra, amelyek segítségével kezelheti a visszaéléseket, például a gyorshajtást és a kiszámíthatatlan eseményeket, például a baleseteket.

A mesterséges intelligencia fejlesztőinek rendkívül kreatívnak kell lenniük a rendszer viselkedésének előrejelzésében, és meg kell próbálniuk előre jelezni a társadalmi normák és felelősségek esetleges megsértését. Ez azt jelenti, hogy szükség van olyan szabályozási vagy irányítási keretekre, amelyek a mesterséges intelligencia eredményeinek és termékeinek időszakos auditjára és ellenőrzésére támaszkodnak, bár úgy gondolom, hogy ezeknek a keretrendszereknek azt is el kell ismerniük, hogy a rendszertervezőket nem mindig lehet felelősségre vonni az eseményekért.

A „puha” és a „kemény” megközelítések kombinálása

Cason Schmit, közegészségügyi adjunktus, Texas A&M Egyetem

A mesterséges intelligencia szabályozása bonyolult . Az AI megfelelő beállításához először meg kell tennie defiismerje meg az AI-t, és ismerje meg az AI várható kockázatait és előnyeit. DefiA mesterséges intelligencia törvényes bejelentése fontos a törvény hatálya alá tartozó személyek azonosításához. De az AI-technológiák még mindig fejlődnek, ezért nehéz defibefejezni egyet defistabil jogi definíció.

Az AI kockázatainak és előnyeinek megértése szintén fontos. A jó szabályozásnak maximalizálnia kell a közhasznot, miközben minimalizálnia kell a kockázatokat. Az AI-alkalmazások azonban még mindig kialakulóban vannak, így nehéz megjósolni vagy megjósolni, hogy mik lehetnek a jövőbeni kockázatok vagy előnyök. Az ilyen típusú ismeretlenek rendkívülivé teszik az olyan feltörekvő technológiákat, mint az AI nehezen szabályozható hagyományos törvényekkel és rendeletekkel.

A törvényhozók azok gyakran túl lassú a beállításhoz a gyorsan változó technológiai környezethez. Valaki új törvényeket kiadásuk időpontjában elavultak, ill végrehajtóvá tették. Új törvények, szabályozók nélkül a régi törvényeket kell alkalmazniuk szembenézni új problémákat . Néha ez oda vezet jogi akadályok mert szociális juttatások o jogi kiskapukat mert káros viselkedések .

Lágy törvény

Az "puha törvény ” alternatívája a hagyományos „hard law” jogalkotási megközelítéseknek, amelyek célja a konkrét jogsértések megakadályozása. A puha jogi megközelítésben egy magánszervezet alapít szabályok vagy szabványok iparági tagok számára. Ezek gyorsabban változhatnak, mint a hagyományos jogszabályok. Megcsinálja ígéretes puha törvények feltörekvő technológiák számára, mert gyorsan alkalmazkodnak az új alkalmazásokhoz és kockázatokhoz. Azonban, A puha törvények puha végrehajtást jelenthetnek .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) javasolunk egy harmadik utat: Copyleft AI megbízható végrehajtással (CAITE) . Ez a megközelítés a szellemi tulajdon két nagyon eltérő fogalmát ötvözi: a licenceket copyleft e patent troll.

Left licencek másolása

Az engedélyek copyleft lehetővé teszi a tartalom egyszerű felhasználását, újrafelhasználását vagy módosítását a licenc feltételei alapján, például a nyílt forráskódú szoftvereket. Modell CAITE licenceket használni copyleft megkövetelni a mesterséges intelligencia felhasználóktól, hogy kövessenek bizonyos etikai irányelveket, például az elfogultság hatásának átlátható értékelését.

Modellünkben ezek a licencek a licencsértések kikényszerítésére vonatkozó törvényes jogot is egy megbízható harmadik félre ruházzák át. Ez egy végrehajtó entitást hoz létre, amely kizárólag a mesterséges intelligencia etikai normáinak betartatására létezik, és részben az etikátlan magatartás miatt kiszabható pénzbírságokból finanszírozható. Ez az entitás olyan, mint a patent troll mivel inkább magán, mint állami, és a másoktól begyűjtött törvényes szellemi tulajdonjogok érvényesítésével tartja fenn magát. Ebben az esetben a gazdálkodó egység ahelyett, hogy haszonszerzésre futna, etikai irányelveket érvényesít definite az engedélyekben.

Ez a modell rugalmas és adaptálható, hogy megfeleljen a folyamatosan változó AI-környezet igényeinek. Ez jelentős végrehajtási lehetőségeket is lehetővé tesz, mint például a hagyományos kormányzati szabályozó. Ily módon ötvözi a kemény és puha jogi megközelítések legjobb elemeit, hogy megbirkózzanak a mesterséges intelligencia egyedi kihívásaival.

Négy kulcsfontosságú kérdés

John Villasenor, az elektrotechnika, a jog, a közpolitika és a menedzsment professzora, Kaliforniai Egyetem, Los Angeles

az rendkívüli haladás a közelmúltban A nagy nyelveken a modellalapú generatív mesterséges intelligencia új, mesterséges intelligencia-specifikus szabályozás létrehozására ösztönöz. Íme négy kulcskérdés, amelyet fel kell tennie magának:

1) Szükség van-e új speciális szabályozásra a mesterséges intelligencia tekintetében? 

Az AI-rendszerek potenciálisan problémás kimenetelével már a meglévő keretrendszerek foglalkoznak. Ha egy bank által a hitelkérelmek értékelésére használt mesterséges intelligencia algoritmus fajilag diszkriminatív hitelezési döntésekhez vezet, az sértené a méltányos lakhatásról szóló törvényt. Ha egy vezető nélküli autóban lévő mesterséges intelligencia szoftver balesetet okoz, a termékfelelősségi törvény előírja a jogorvoslatok követésének kerete .

2) Milyen kockázatokkal jár egy gyorsan fejlődő technológia időbeli pillanatképen alapuló szabályozása? 

Ennek klasszikus példája a Tárolt hírközlési törvény , amelyet 1986-ban fogadtak el az akkori innovatív digitális kommunikációs technológiák, például az e-mail kezelésére. Az SCA törvénybe iktatásakor a Kongresszus lényegesen kevesebb adatvédelmet biztosított a 180 napnál régebbi e-mailek számára.

Az indoklás az volt, hogy a korlátozott tárhely azt jelentette, hogy az emberek folyamatosan takarították a beérkező leveleiket a régebbi üzenetek törlésével, hogy helyet adjanak az újaknak. Ennek eredményeként a több mint 180 napig archivált üzeneteket adatvédelmi szempontból kevésbé tartották fontosnak. Nem világos, hogy ennek a logikának volt-e valaha értelme, és az 20-as években, amikor e-mailjeink és egyéb archivált digitális kommunikációink többsége hat hónapnál régebbi, semmiképpen sem volt értelme.

Az egyetlen pillanatfelvételen alapuló technológia szabályozásával kapcsolatos aggodalmakra adott általános válasz a következő: Ha egy törvény vagy rendelet elavulttá válik, frissítse azt. Könnyebb mondani, mint megtenni. A legtöbben egyetértenek abban, hogy az SCA évtizedekkel ezelőtt elavulttá vált. De mivel a Kongresszus nem tudott konkrétan megállapodni a 180 napos rendelkezés felülvizsgálatáról, több mint egyharmad évszázaddal a hatályba lépése után még mindig benne van.

3) Mik a lehetséges nem kívánt következmények? 

Il Lehetővé teszi az államok és az áldozatok számára az online szexuális emberkereskedelem elleni küzdelem 2017. évi törvényét ez egy 2018-ban elfogadott törvény volt, amelyet felülvizsgált 230. § a kommunikációs tisztességről szóló törvény értelmében a szexuális emberkereskedelem elleni küzdelem céljából. Bár kevés bizonyíték van arra, hogy csökkentette volna a szexuális kereskedelmet, mégis volt rendkívül problematikus hatás egy másik embercsoporton: a szexmunkások, akik a FOSTA-SESTA által offline állapotba hozott webhelyekre támaszkodtak, hogy információt cseréljenek a veszélyes ügyfelekről. Ez a példa jól mutatja annak fontosságát, hogy a javasolt rendeletek lehetséges hatásait széles körben vizsgáljuk meg.

4) Milyen gazdasági és geopolitikai következményei vannak? 

Ha az Egyesült Államokban a szabályozók lépéseket tesznek a mesterséges intelligencia fejlődésének szándékos lelassítása érdekében, az egyszerűen máshová tolja a beruházásokat és az innovációt – és az ebből eredő munkahelyteremtést. Bár a feltörekvő mesterséges intelligencia sok aggályt vet fel, hatalmas előnyökkel is kecsegtet olyan területeken, mint pl utasítás , orvostudomány , Termelés , közlekedésbiztonság , mezőgazdaság , előre látható meteorológia , jogi szolgáltatásokhoz való hozzáférés és több.

Úgy gondolom, hogy a fenti négy kérdést szem előtt tartva megszövegezett AI-szabályozás nagyobb valószínűséggel sikeresen kezeli a mesterséges intelligencia lehetséges ártalmait, miközben biztosítja az előnyökhöz való hozzáférést.

Ez a cikk szabadon kivonat a The Conversationből, egy független non-profit hírszervezetből, amely a tudományos szakértők tudásának megosztásával foglalkozik.

Kapcsolódó olvasmányok

BlogInnovazione.it

Innovációs hírlevél
Ne maradjon le az innovációval kapcsolatos legfontosabb hírekről. Regisztráljon, hogy megkapja őket e-mailben.

Friss cikkek

A színező oldalak előnyei gyerekeknek – a varázslatok világa minden korosztály számára

A finom motoros készségek színezéssel történő fejlesztése felkészíti a gyerekeket olyan összetettebb készségekre, mint az írás. Kiszínezni…

Május 2 2024

A jövő itt van: Hogyan forradalmasítja a hajózási ágazat a globális gazdaságot

A haditengerészeti szektor igazi világgazdasági hatalom, amely egy 150 milliárdos piac felé navigált...

Május 1 2024

A kiadók és az OpenAI megállapodásokat írnak alá a mesterséges intelligencia által feldolgozott információáramlás szabályozására

Múlt hétfőn a Financial Times bejelentette, hogy megállapodást köt az OpenAI-val. Az FT engedélyezi világszínvonalú újságírását…

30 április 2024

Online fizetés: Így fizethet örökké a streaming szolgáltatások

Emberek milliói fizetnek a streaming szolgáltatásokért, havi előfizetési díjat fizetve. Általános vélemény, hogy Ön…

29 április 2024