Artikel

Ngatur AI: 3 ahli nerangake kenapa angel ditindakake lan penting kanggo nindakake kanthi apik

Sistem AI anyar sing kuat bisa nggedhekake penipuan lan disinformasi, ndadékaké panyuwunan sing nyebar kanggo peraturan pemerintah. Nanging nglakoni luwih gampang tinimbang rampung lan bisa nyebabake akibat sing ora disengaja

Perkiraan wektu maca: 11 menit

Wenehi dheweke foto palsu saka Donald Trump dipenjara dening perwira polisi New York City kanggo chatbot njlèntrèhaké siji ilmuwan komputer banget urip minangka mati tragis , kemampuan sistem generasi anyar intelijen buatan drive generatif kanggo nggawe milutaken nanging fiktif teks lan gambar sparking weker babagan penipuan steroid lan misinformation. Pancen, ing tanggal 29 Maret 2023, klompok peneliti AI lan tokoh industri njaluk supaya industri nundha latihan luwih lanjut babagan teknologi AI paling anyar utawa, yen ora, pamrentah supaya "nemtokke moratorium".

Generator gambar kaya SLAB , midjourney e Difusi Stabil lan generator isi kayata Bard , Ngobrol GPT , chinchilla e Telpon - saiki kasedhiya kanggo mayuta-yuta wong lan ora mbutuhake kawruh teknis kanggo digunakake.

Amarga lanskap perusahaan teknologi sing nyebarake sistem AI lan nyoba ing masarakat, para pembuat kebijakan kudu takon dhewe apa lan kepiye carane ngatur teknologi sing berkembang. Obrolan kasebut njaluk telung ahli kabijakan teknologi kanggo nerangake kenapa ngatur AI minangka tantangan lan kenapa penting banget kanggo nindakake kanthi bener.

Fobles manungsa lan target obah

S. Shyam Sundar, profesor efek multimedia lan direktur, Center for Socially Responsible AI, Penn State

Alesan kanggo ngatur AI ora amarga teknologi ora bisa dikontrol, nanging amarga imajinasi manungsa ora seimbang. Liputan media sing akeh banget nyebabake kapercayan sing ora rasional babagan kemampuan lan kesadaran AI. Kapercayan kasebut adhedhasar " bias otomatisasi "utawa ing cenderung supaya kita njaga mudhun nalika mesin nindakake tugas. Tuladhane yaiku kurang waspada ing antarane para pilot nalika pesawat sing mabur ing autopilot.

Akeh panaliten ing labku wis nuduhake yen mesin, tinimbang manungsa, diidentifikasi minangka sumber interaksi, bisa nyebabake trabasan mental ing pikiran pangguna sing diarani "heuristik mesin". " . Shorthand iki minangka kapercayan manawa mesin akurat, obyektif, ora adil, ora salah, lan liya-liyane. Iku awan pertimbangan pangguna lan nyebabake pangguna dipercaya banget marang mesin. Nanging, mung disillusioning wong babagan infallibility AI ora cukup, amarga manungsa dikenal kanggo subconsciously nganggep keahlian sanajan teknologi ora njamin.

Riset uga nuduhake manawa wong nganggep komputer minangka makhluk sosial nalika mesin nuduhake malah Petunjuk slightest saka kamanungsan, kayata nggunakake basa conversational. Ing kasus kasebut, wong ngetrapake aturan sosial interaksi manungsa, kayata sopan santun lan timbal balik. Dadi nalika komputer katon sensual, wong cenderung percaya kanthi wuta. Regulasi dibutuhake kanggo mesthekake produk AI pantes dipercaya lan ora ngeksploitasi.

AI menehi tantangan unik amarga, ora kaya sistem teknik tradisional, desainer ora bisa yakin kepiye kinerja sistem AI. Nalika mobil tradisional metu saka pabrik, para insinyur ngerti persis kepiye kinerja mobil kasebut. Nanging karo mobil self-driving, engineers padha ora bisa yakin carane bakal nindakake ing kahanan anyar .

Kesulitan ngontrol inovasi

Akhir-akhir iki, ewonan wong ing saindenging jagad gumun karo model AI generatif gedhe kaya GPT-4 lan DALL-E 2 kanggo nanggepi sarane. Ora ana insinyur sing melu ngembangake model AI iki sing bisa menehi katrangan babagan model sing bakal diprodhuksi. Kanggo ngrampungake masalah, model iki ganti lan berkembang kanthi interaksi sing luwih gedhe.

Kabeh iki tegese ana akeh potensial kanggo misfires. Mulane, akeh gumantung carane sistem AI dileksanakake lan apa pranata kanggo recourse ing Panggonan nalika sensibilities utawa kesejahteraan manungsa cilaka. AI luwih saka infrastruktur, kaya dalan tol. Sampeyan bisa ngrancang kanggo mbentuk prilaku manungsa ing kolektif, nanging sampeyan butuh mekanisme kanggo ngatasi penyalahgunaan, kayata nyepetake, lan acara sing ora bisa diramal, kayata kacilakan.

Pangembang AI uga kudu kreatif banget kanggo prédhiksi cara sistem bisa tumindak lan nyoba kanggo ngantisipasi kemungkinan nglanggar standar lan tanggung jawab sosial. Iki tegese perlu kanggo kerangka regulasi utawa pamrentahan sing gumantung ing audit periodik lan nliti asil lan produk AI, sanajan aku yakin kerangka kerja kasebut uga kudu ngakoni manawa perancang sistem ora bisa tansah tanggung jawab kanggo kedadeyan.

Gabungan pendekatan "alus" lan "atos".

Cason Schmit, asisten profesor kesehatan masyarakat, Texas A&M University

Ngatur intelijen buatan rumit . Kanggo nyetel AI kanthi apik, sampeyan kudu luwih dhisik definish AI lan ngerti risiko samesthine lan keuntungan AI. DefiNgajokake AI kanthi sah penting kanggo ngenali apa sing tundhuk karo hukum. Nanging teknologi AI isih berkembang, dadi angel defirampung siji defidefinisi legal stabil.

Ngerti risiko lan keuntungan AI uga penting. Regulasi sing apik kudu nggedhekake keuntungan umum lan nyuda resiko. Nanging, aplikasi AI isih terus berkembang, mula angel ngerti utawa prédhiksi apa risiko utawa keuntungan ing mangsa ngarep. Jinis-jinis sing ora dingerteni iki nggawe teknologi sing berkembang kaya AI banget angel diatur karo hukum lan peraturan tradisional.

Lawmakers iku asring banget alon kanggo nyetel menyang lingkungan teknologi sing ganti kanthi cepet. sopo hukum anyar iku lungse nalika lagi ditanggepi utawa digawe eksekutif. Tanpa hukum anyar, regulator padha kudu nggunakake hukum lawas kanggo ngadhepi masalah anyar . Kadhangkala iki ndadékaké kanggo alangan legal saben keuntungan sosial o loopholes legal saben prilaku mbebayani .

Hukum Lembut

"ukum alus " minangka alternatif kanggo pendekatan legislatif "hukum keras" tradisional sing tujuane kanggo nyegah pelanggaran tartamtu. Ing pendekatan hukum alus, organisasi pribadi netepake aturan utawa standar kanggo anggota industri. Iki bisa diganti luwih cepet tinimbang aturan tradisional. Sing ndadekake njanjeni hukum alus kanggo teknologi sing berkembang amarga bisa cepet adaptasi karo aplikasi lan risiko anyar. Nanging, Hukum sing alus bisa ateges penegakan sing alus .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) kita ngusulake cara katelu: Copyleft AI with Trusted Enforcement (CAITE) . Pendekatan iki nggabungake rong konsep sing beda banget ing properti intelektual: lisensi copyleft e patent troll.

Salin Lisensi Ngiwa

Lisensi copyleft ngidini sampeyan nggunakake, nggunakake maneh, utawa ngowahi konten kanthi gampang miturut syarat lisensi, kayata piranti lunak sumber terbuka. Model CAITE nggunakake lisensi copyleft kanggo mbutuhake pangguna AI supaya ngetutake pedoman etika tartamtu, kayata evaluasi transparan babagan pengaruh bias.

Ing model kita, lisensi kasebut uga nransfer hak legal kanggo ngetrapake pelanggaran lisensi menyang pihak katelu sing dipercaya. Iki nggawe entitas penegak sing ana mung kanggo ngetrapake standar etika AI lan bisa didanai sebagian kanthi denda kanggo tumindak sing ora etis. Entitas iki kaya a patent troll amarga iku pribadi tinimbang pamrentah lan ndhukung dhewe kanthi ngetrapake hak properti intelektual sing sah sing dikumpulake saka wong liya. Ing kasus iki, tinimbang mlaku kanggo entuk bathi, entitas kasebut ngetrapake pedoman etika definite ing lisensi.

Model iki fleksibel lan bisa adaptasi kanggo nyukupi kabutuhan lingkungan AI sing tansah ganti. Uga ngidini opsi penegakan substansial kaya regulator pemerintah tradisional. Kanthi cara iki, nggabungake unsur paling apik saka pendekatan hukum sing keras lan alus kanggo ngatasi tantangan unik AI.

Patang pitakonan kunci sing kudu ditakoni

John Villasenor, profesor teknik elektro, hukum, kabijakan umum lan manajemen, Universitas California, Los Angeles

ing kemajuan anyar sing luar biasa ing AI generatif basis model basa gedhe sing spurring dikarepake kanggo nggawe peraturan AI-tartamtu anyar. Ing ngisor iki ana papat pitakonan penting sing kudu ditakoni dhewe:

1) Apa ana perlu kanggo peraturan khusus anyar kanggo AI? 

Akeh asil sing bisa dadi masalah saka sistem AI wis ditangani dening kerangka kerja sing wis ana. Yen algoritma AI sing digunakake dening bank kanggo ngevaluasi aplikasi silihan nyebabake keputusan kredit sing diskriminatif ras, bakal nglanggar Fair Housing Act. Yen piranti lunak AI ing mobil tanpa sopir nyebabake kacilakan, hukum tanggung jawab produk menehi kerangka kanggo nggayuh obat .

2) Apa risiko ngatur teknologi sing berkembang kanthi cepet adhedhasar gambar wektu? 

Conto klasik iki yaiku Undhang-undhang Komunikasi sing Disimpen , sing dileksanakake ing taun 1986 kanggo ngatasi teknologi komunikasi digital sing inovatif kayata email. Nalika ngetrapake SCA, Kongres nyedhiyakake proteksi privasi sing luwih sithik kanggo email sing luwih lawas tinimbang 180 dina.

Alesane yaiku panyimpenan sing winates tegese wong-wong terus ngresiki kothak mlebu kanthi mbusak pesen sing luwih lawas kanggo menehi ruang kanggo sing anyar. Akibaté, pesen sing diarsipaké luwih saka 180 dina dianggep kurang penting saka perspektif privasi. Ora jelas apa logika iki bisa dimangerteni, lan mesthi ora ana gunane ing taun 20-an, nalika umume email lan komunikasi digital sing diarsipake luwih saka nem sasi.

Tanggepan umum kanggo uneg-uneg babagan teknologi ngatur adhedhasar snapshot siji liwat wektu iki: Yen hukum utawa angger-angger dadi lungse, nganyari. Iku luwih gampang ngandika saka rampung. Umume wong setuju yen SCA dadi lungse pirang-pirang dekade kepungkur. Nanging amarga Kongres ora bisa setuju kanthi khusus babagan cara ngowahi pranata 180 dina, mula isih ana ing buku luwih saka sapratelo abad sawise diberlakukan.

3) Apa akibat sing ora dikarepake? 

Il Ngidini Negara lan Korban Nglawan Undhang-undhang Perdagangan Seks Online 2017 iku hukum liwati ing 2018 kang diubah Pasal 230 Undhang-undhang Kesopanan Komunikasi kanthi tujuan nglawan perdagangan seks. Nalika ana sethitik bukti sing wis suda perdagangan seks, dheweke wis a impact banget masalah ing klompok wong sing beda: pekerja seks sing ngandelake situs web sing dijupuk offline dening FOSTA-SESTA kanggo ngganti informasi babagan klien sing mbebayani. Conto iki nuduhake pentinge njupuk dipikir amba ing efek potensial saka peraturan ngajokaken.

4) Apa implikasi ekonomi lan geopolitik? 

Yen regulator ing AS tumindak kanthi sengaja alon-alon kemajuan ing AI, mung bakal nyurung investasi lan inovasi - lan nggawe lapangan kerja - ing papan liya. Nalika AI sing berkembang nyebabake akeh keprihatinan, uga janji bakal nggawa keuntungan gedhe ing wilayah kayata pandhuan , Medical , produzione , safety transportasi , tetanèn , previsioni meteorologi , akses menyang layanan legal lan liya-liyane.

Aku yakin yen peraturan AI sing disusun kanthi patang pitakonan ing ndhuwur bakal luwih sukses ngatasi potensi cilaka AI nalika njamin akses menyang keuntungane.

Artikel iki dipetik kanthi bebas saka The Conversation, organisasi warta non-profit independen sing darmabakti kanggo nuduhake kawruh para ahli akademik.

Wacan sing gegandhengan

BlogInnovazione.it

newsletter inovasi
Aja kantun warta paling penting babagan inovasi. Mlebu kanggo nampa wong-wong mau liwat email.

Artikel anyar

Veeam nduweni dhukungan paling lengkap kanggo ransomware, saka proteksi nganti respon lan pemulihan

Coveware dening Veeam bakal terus nyedhiyakake layanan respon insiden pemerasan cyber. Coveware bakal nawakake kemampuan forensik lan remediasi…

23 April 2024

Revolusi Ijo lan Digital: Kepiye Pangopènan Prediktif Ngowahi Industri Minyak & Gas

Pangopènan prediktif ngrevolusi sektor minyak & gas, kanthi pendekatan inovatif lan proaktif kanggo manajemen pabrik.…

22 April 2024

Regulator antitrust Inggris mundhakaken weker BigTech liwat GenAI

CMA UK wis ngetokake bebaya babagan prilaku Big Tech ing pasar intelijen buatan. Ana…

18 April 2024

Casa Green: revolusi energi kanggo masa depan sing lestari ing Italia

Keputusan "Case Green", sing dirumusake dening Uni Eropa kanggo ningkatake efisiensi energi bangunan, wis rampung proses legislatif kanthi…

18 April 2024