Артыкулы

Рэгуляванне штучнага інтэлекту: 3 эксперты тлумачаць, чаму гэта цяжка зрабіць і важна рабіць добра

Новыя магутныя сістэмы штучнага інтэлекту могуць пашырыць махлярства і дэзінфармацыю, што прывядзе да шырокіх заклікаў да дзяржаўнага рэгулявання. Але зрабіць гэта лягчэй, чым зрабіць, і гэта можа мець непрадбачаныя наступствы

Разліковы час чытання: 11 хвілін

аполак падробленыя фатаграфіі Дональда Трампа, арыштаванага паліцыяй Нью-Ёрка, у чат-бот, які апісвае адзін інфарматык вельмі жывы, але трагічна загінуў , магчымасці сістэм новага пакалення штучны інтэлект генератыўнае імкненне да стварэння пераканаўчага, але фіктыўнага тэксту і малюнкаў выклікае трывогу з нагоды махлярства са стэроідамі і дэзінфармацыі. Сапраўды, 29 сакавіка 2023 г. група даследчыкаў штучнага інтэлекту і дзеячаў галіны заклікала галіну прыпыніць далейшае навучанне па найноўшых тэхналогіях штучнага інтэлекту або, за выключэннем гэтага, урады «ўвесці мараторый».

Як генератары малюнкаў ПЛІТА , Прамежак падарожжа e Стабільная дыфузія і генератары кантэнту, такія як Бард , Чат GPT , Шыншыла e LlaMA – цяпер даступныя мільёнам людзей і не патрабуюць тэхнічных ведаў для выкарыстання.

Улічваючы разгортванне тэхналагічных кампаній, якія разгортваюць сістэмы штучнага інтэлекту і тэстуюць іх на публіцы, палітыкі павінны спытаць сябе, ці трэба і як рэгуляваць новыя тэхналогіі. The Conversation папрасіла трох экспертаў па тэхнічнай палітыцы растлумачыць, чаму рэгуляванне штучнага інтэлекту з'яўляецца такой складанай задачай і чаму так важна зрабіць гэта правільна.

Чалавечыя слабасці і рухомая мішэнь

С. Шям Сундар, прафесар мультымедыйных эфектаў і дырэктар Цэнтра сацыяльна адказнага штучнага інтэлекту, штат Пенсільванія

Прычына рэгулявання штучнага інтэлекту заключаецца не ў тым, што тэхналогія выйшла з-пад кантролю, а ў тым, што чалавечае ўяўленне непрапарцыйна. Шырокае асвятленне ў СМІ падштурхнула ірацыянальныя перакананні аб магчымасцях і свядомасці ІІ. Гэтыя перакананні заснаваныя на " ухіл аўтаматызацыі ” або пра тэндэнцыю падводзіць нашу ахову, калі машыны выконваюць заданне. Прыклад ёсць зніжэнне пільнасці пілотаў калі іх самалёт ляціць на аўтапілоце.

Шматлікія даследаванні ў маёй лабараторыі паказалі, што калі машына, а не чалавек, ідэнтыфікуецца ў якасці крыніцы ўзаемадзеяння, гэта выклікае разумовы ярлык у свядомасці карыстальнікаў, які мы называем "машыннай эўрыстыкай". " . Гэта стэнаграфія - вера ў тое, што машыны дакладныя, аб'ектыўныя, бесстароннія, беспамылковыя і гэтак далей. Гэта азмрочвае меркаванне карыстальніка і прымушае яго празмерна давяраць машынам. Аднак недастаткова проста расчараваць людзей у беспамылковасці штучнага інтэлекту, таму што вядома, што людзі падсвядома мяркуюць, што валодаюць ілюзіямі, нават калі тэхналогіі гэтага не гарантуюць.

Даследаванні таксама паказалі, што людзі ставяцца да кампутараў як да сацыяльных істот калі машыны праяўляюць нават найменшы намёк на чалавечнасць, напрыклад, выкарыстанне гутарковай мовы. У гэтых выпадках людзі прымяняюць сацыяльныя правілы чалавечага ўзаемадзеяння, такія як ветлівасць і ўзаемнасць. Такім чынам, калі кампутары здаюцца разумнымі, людзі схільныя давяраць ім слепа. Рэгуляванне неабходна, каб гарантаваць, што прадукты штучнага інтэлекту заслугоўваюць такога даверу і не выкарыстоўваюць яго.

AI ўяўляе сабой унікальную праблему, таму што, у адрозненне ад традыцыйных інжынерных сістэм, дызайнеры не могуць быць упэўнены, як сістэмы AI будуць працаваць. Калі традыцыйны аўтамабіль выйшаў з завода, інжынеры дакладна ведалі, як ён будзе працаваць. Але з беспілотнымі аўтамабілямі, інжынерамі яны ніколі не могуць быць упэўнены, як яны будуць паводзіць сябе ў новых сітуацыях .

Цяжкасці ў кантролі за інавацыямі

Апошнім часам тысячы людзей па ўсім свеце здзіўляліся таму, што вялікія генератыўныя мадэлі штучнага інтэлекту, такія як GPT-4 і DALL-E 2, ствараюць у адказ на іх прапановы. Ні адзін з інжынераў, якія ўдзельнічалі ў распрацоўцы гэтых мадэляў штучнага інтэлекту, не змог дакладна сказаць, што гэтыя мадэлі будуць вырабляць. Што ўскладняе сітуацыю, гэтыя мадэлі змяняюцца і развіваюцца з усё большым узаемадзеяннем.

Усё гэта азначае, што ёсць шырокі патэнцыял для асечак. Такім чынам, многае залежыць ад таго, як рэалізаваны сістэмы штучнага інтэлекту і якія палажэнні аб рэгрэсе дзейнічаюць у выпадку шкоды адчувальнасці або дабрабыту чалавека. ШІ - гэта хутчэй інфраструктура, напрыклад аўтастрада. Вы можаце распрацаваць яго так, каб фармаваць паводзіны людзей у калектыве, але вам спатрэбяцца механізмы барацьбы з парушэннямі, такімі як перавышэнне хуткасці, і непрадказальнымі падзеямі, такімі як аварыі.

Распрацоўшчыкам штучнага інтэлекту таксама трэба будзе праявіць незвычайную крэатыўнасць у прагназаванні таго, як сістэма можа паводзіць сябе, і спрабаваць прадбачыць магчымыя парушэнні сацыяльных стандартаў і абавязкаў. Гэта азначае, што існуе патрэба ў нарматыўных структурах або структурах кіравання, якія абапіраюцца на перыядычныя аўдыты і праверку вынікаў і прадуктаў штучнага інтэлекту, хаця я лічу, што гэтыя структуры таксама павінны прызнаваць, што распрацоўшчыкі сістэм не заўсёды могуць несці адказнасць за інцыдэнты.

Спалучэнне «мяккага» і «жорсткага» падыходаў

Кейсан Шміт, дацэнт кафедры грамадскага аховы здароўя Тэхаскага універсітэта A&M

Рэгуляваць штучны інтэлект складана . Каб добра наладзіць AI, вам трэба спачатку defiніш ІІ і зразумець чаканыя рызыкі і перавагі ІІ. DefiЮрыдычная падача AI важная для вызначэння таго, што падпадае пад дзеянне закона. Але тэхналогіі штучнага інтэлекту ўсё яшчэ развіваюцца, таму гэта складана defiскончыць адзін defiустойлівае юрыдычнае вызначэнне.

Разуменне рызык і пераваг ІІ таксама важна. Добрае рэгуляванне павінна максымізаваць грамадскія выгоды пры мінімізацыі рызык. Тым не менш, прыкладанні штучнага інтэлекту ўсё яшчэ з'яўляюцца, таму цяжка ведаць або прадказаць, якія будучыя рызыкі або выгады могуць быць. Гэтыя тыпы невядомых робяць новыя тэхналогіі, такія як штучны інтэлект, надзвычай важнымі цяжка рэгуляваць з традыцыйнымі законамі і правіламі.

Заканадаўцы ёсць часта занадта павольна, каб наладзіць да хутка зменлівага тэхналагічнага асяроддзя. Хтосьці новыя законы састарэлі на момант іх выпуску або зрабіў выканаўчы. Без новых законаў, рэгулятараў яны павінны карыстацца старымі законамі за афронтарэ новыя праблемы . Часам гэта прыводзіць да юрыдычныя бар'еры для сацыяльныя выплаты o юрыдычныя шчыліны для шкодныя паводзіны .

Мяккае права

"мяккі закон » з'яўляюцца альтэрнатывай традыцыйным «жорсткім законам» заканадаўчым падыходам, накіраваным на прадухіленне канкрэтных парушэнняў. Пры падыходзе мяккага права ўстанаўлівае прыватная арганізацыя правілы або стандарты для членаў галіны. Яны могуць змяняцца хутчэй, чым традыцыйнае заканадаўства. Гэта робіць перспектыўныя мяккія законы для новых тэхналогій, таму што яны могуць хутка адаптавацца да новых прыкладанняў і рызык. аднак, Мяккае права можа азначаць мяккае выкананне .

Меган Доер , Джэніфер Вагнер e io (Кейсан Шміт) мы прапануем трэці спосаб: Copyleft AI with Trusted Enforcement (CAITE) . Гэты падыход аб'ядноўвае дзве вельмі розныя канцэпцыі інтэлектуальнай уласнасці: ліцэнзіі copyleft e patent troll.

Скапіруйце левыя ліцэнзіі

Ліцэнзіі copyleft дазваляюць лёгка выкарыстоўваць, паўторна выкарыстоўваць або змяняць кантэнт у адпаведнасці з умовамі ліцэнзіі, напрыклад, праграмнае забеспячэнне з адкрытым зыходным кодам. мадэль CAITE выкарыстоўваць ліцэнзіі copyleft патрабаваць ад карыстальнікаў штучнага інтэлекту прытрымлівацца пэўных этычных прынцыпаў, такіх як празрыстыя ацэнкі ўплыву прадузятасці.

У нашай мадэлі гэтыя ліцэнзіі таксама перадаюць законнае права кантраляваць парушэнні ліцэнзій даверанай трэцяй асобе. Гэта стварае праваахоўны орган, які існуе выключна для забеспячэння выканання этычных стандартаў штучнага інтэлекту і можа часткова фінансавацца за кошт штрафаў за неэтычныя паводзіны. Гэтая сутнасць падобная на a patent troll паколькі яна з'яўляецца прыватнай, а не дзяржаўнай, і забяспечвае сябе шляхам захавання законных правоў на інтэлектуальную ўласнасць, атрыманых ад іншых. У гэтым выпадку арганізацыя не імкнецца да прыбытку, а выконвае этычныя прынцыпы definite ў ліцэнзіях.

Гэтая мадэль з'яўляецца гнуткай і адаптаванай для задавальнення патрэб пастаянна змяняецца асяроддзя штучнага інтэлекту. Гэта таксама дазваляе істотныя варыянты прымусовага выканання, як традыцыйны дзяржаўны рэгулятар. Такім чынам, ён аб'ядноўвае лепшыя элементы падыходаў жорсткага і мяккага права для вырашэння унікальных праблем ІІ.

Чатыры ключавыя пытанні, якія варта задаць

Джон Віласенор, прафесар электратэхнікі, права, дзяржаўнай палітыкі і кіравання Каліфарнійскага ўніверсітэта ў Лос-Анджэлесе

The,it незвычайны апошні прагрэс у вялікай моўнай мадэлі генератыўны штучны інтэлект падштурхоўвае попыт на стварэнне новых спецыфічных правілаў штучнага інтэлекту. Вось чатыры ключавыя пытанні, якія трэба задаць сабе:

1) Ці ёсць неабходнасць у новым спецыяльным рэгуляванні для ІІ? 

Многія патэнцыйна праблемныя вынікі сістэм штучнага інтэлекту ўжо разглядаюцца ў існуючых рамках. Калі алгарытм штучнага інтэлекту, які выкарыстоўваецца банкам для ацэнкі заявак на пазыку, прыводзіць да расава-дыскрымінацыйных рашэнняў аб крэдытаванні, гэта будзе парушэннем Закона аб справядлівым жыллёвым будаўніцтве. Калі праграмнае забеспячэнне штучнага інтэлекту ў аўтамабілі без кіроўцы становіцца прычынай аварыі, закон аб адказнасці за прадукт прадугледжвае рамкі для пошуку сродкаў прававой абароны .

2) Якія рызыкі рэгулявання тэхналогіі, якая хутка развіваецца, заснаванай на здымку часу? 

Класічным прыкладам гэтага з'яўляецца Закон аб захоўваецца сувязі , які быў прыняты ў 1986 годзе для разгляду тагачасных інавацыйных тэхналогій лічбавай сувязі, такіх як электронная пошта. Прыняўшы SCA, Кангрэс забяспечыў значна меншую абарону прыватнасці для электроннай пошты, старэйшай за 180 дзён.

Абгрунтаванне заключалася ў тым, што абмежаванае сховішча азначала, што людзі пастаянна чысцілі свае паштовыя скрыні, выдаляючы старыя паведамленні, каб вызваліць месца для новых. У выніку паведамленні, архіваваныя больш за 180 дзён, лічыліся менш важнымі з пункту гледжання прыватнасці. Незразумела, ці мела гэтая логіка калі-небудзь сэнс, і яна, безумоўна, не мела сэнсу ў 20-я гады, калі большасці нашых электронных лістоў і іншых архіваваных лічбавых паведамленняў больш за шэсць месяцаў.

Распаўсюджаная рэакцыя на праблемы з нагоды рэгулявання тэхналогіі на аснове аднаго здымка з цягам часу наступная: калі закон або пастанова састарэе, абнавіце іх. Гэта лягчэй сказаць, чым зрабіць. Большасць людзей згодныя з тым, што SCA састарэла дзесяцігоддзі таму. Але паколькі Кангрэс не змог канкрэтна дамовіцца аб тым, як перагледзець палажэнне аб 180 днях, яно ўсё яшчэ знаходзіцца ў кнігах больш чым праз траціну стагоддзя пасля таго, як было прынята.

3) Якія магчымыя непрадбачаныя наступствы? 

Il Дазволіць дзяржавам і ахвярам змагацца з Законам аб гандлі сэксам у Інтэрнэце 2017 года гэта быў закон, прыняты ў 2018 годзе, які ён перагледзеў Раздзел 230 Закона аб прыстойнасці ў камунікацыях з мэтай барацьбы з гандлем сэксам. Хоць доказаў таго, што ён скараціў гандаль сэксуальнымі паслугамі, мала, у яго было надзвычай праблематычнае ўздзеянне на іншую групу людзей: сэкс-работнікаў, якія абапіраліся на вэб-сайты, адключаныя FOSTA-SESTA для абмену інфармацыяй аб небяспечных кліентах. Гэты прыклад паказвае важнасць шырокага разгляду магчымых наступстваў прапанаваных правілаў.

4) Якія эканамічныя і геапалітычныя наступствы? 

Калі рэгулюючыя органы ў ЗША прымуць меры, каб наўмысна запаволіць прагрэс у ІІ, гэта проста падштурхне інвестыцыі і інавацыі - і, як следства, стварэнне працоўных месцаў - у іншым месцы. Нягледзячы на ​​тое, што новы штучны інтэлект выклікае шмат праблем, ён таксама абяцае прынесці вялікую карысць у такіх галінах, як інструкцыя , медыцына , вытворчасць , транспартная бяспека , сельская гаспадарка , папярэдняя метэаралагічная , доступ да юрыдычных паслуг і многае іншае.

Я лічу, што правілы штучнага інтэлекту, распрацаваныя з улікам чатырох вышэйзгаданых пытанняў, з большай верагоднасцю паспяховы ліквідуюць патэнцыйную шкоду штучнага інтэлекту, адначасова забяспечваючы доступ да яго пераваг.

Гэты артыкул вольны ўрывак з The Conversation, незалежнай некамерцыйнай інфармацыйнай арганізацыі, якая займаецца абменам ведамі акадэмічных экспертаў.

Падобныя чытанні

BlogInnovazione.it

Інавацыйны бюлетэнь
Не прапусціце самыя важныя навіны пра інавацыі. Падпішыцеся, каб атрымліваць іх па электроннай пошце.
Ключавыя словы: штучны інтэлект

Апошнія артыкулы

Выдаўцы і OpenAI падпісваюць пагадненні аб рэгуляванні патоку інфармацыі, апрацаванай штучным інтэлектам

У мінулы панядзелак Financial Times абвясціла аб здзелцы з OpenAI. FT ліцэнзуе сваю журналістыку сусветнага ўзроўню...

Красавік 30 2024

Інтэрнэт-плацяжы: вось як паслугі струменевай перадачы прымушаюць вас плаціць вечна

Мільёны людзей плацяць за струменевыя паслугі, плацячы штомесячную абаненцкую плату. Распаўсюджана меркаванне, што вы…

Красавік 29 2024

Veeam прапануе самую поўную падтрымку праграм-вымагальнікаў - ад абароны да адказу і аднаўлення

Coveware ад Veeam працягне прадастаўляць паслугі рэагавання на інцыдэнты кібервымагальніцтва. Coveware будзе прапаноўваць судова-медыцынскую экспертызу і магчымасці выпраўлення…

Красавік 23 2024

Зялёная і лічбавая рэвалюцыя: як прагнознае тэхнічнае абслугоўванне трансфармуе нафтагазавую прамысловасць

Прагнастычнае тэхнічнае абслугоўванне рэвалюцыянізуе нафтагазавы сектар з інавацыйным і актыўным падыходам да кіравання заводам.…

Красавік 22 2024

Чытайце Innovation на сваёй мове

Інавацыйны бюлетэнь
Не прапусціце самыя важныя навіны пра інавацыі. Падпішыцеся, каб атрымліваць іх па электроннай пошце.

Выконвайце за намі