членовите

Регулирање на вештачката интелигенција: 3 експерти објаснуваат зошто е тешко да се направи и важно да се прави добро

Моќните нови системи за вештачка интелигенција би можеле да ги засилат измамите и дезинформациите, што ќе доведе до широко распространети повици за владина регулација. Но, тоа е полесно да се каже отколку да се направи и може да има несакани последици

Проценето време за читање: 11 минути

од лажни фотографии на Доналд Трамп уапсен од полицајци во Њујорк на чет-бот кој опишува еден компјутерски научник многу жив како умрел трагично , способноста на новата генерација системи вештачка интелигенција генеративниот нагон за создавање привлечни, но фиктивни текстови и слики предизвикува аларми за стероидна измама и дезинформации. Навистина, на 29 март 2023 година, група истражувачи на вештачка интелигенција и индустриски фигури ја повикаа индустријата да ја прекине понатамошната обука за најновите технологии за вештачка интелигенција или, забранувајќи го тоа, владите да „наметнат мораториум“.

Генератори на слики како ДАЛ-Е , Средно патување e Стабилна дифузија и генератори на содржини како што се Бард , Разговор GPT , Chinchilla e Повици – сега се достапни за милиони луѓе и не бараат техничко знаење за користење.

Со оглед на развојот на пејзажот на технолошките компании кои користат системи за вештачка интелигенција и ги тестираат во јавноста, креаторите на политиката треба да се запрашаат дали и како да ја регулираат технологијата што се појавува. Conversation побара од тројца експерти за технолошка политика да објаснат зошто регулирањето на вештачката интелигенција е толку предизвик и зошто е толку важно да се направи правилно.

Човечки недостатоци и мета во движење

С. Шјам Сундар, професор по мултимедијални ефекти и директор, Центар за општествено одговорна вештачка интелигенција, Пен Стејт

Причината за регулирање на вештачката интелигенција не е затоа што технологијата е надвор од контрола, туку затоа што човечката имагинација е непропорционална. Огромното медиумско покривање поттикна ирационални верувања за способностите и свеста на вештачката интелигенција. Овие верувања се засноваат на „ пристрасност на автоматиката “ или на тенденцијата да ја изневериме нашата стража кога машините извршуваат некоја задача. Пример е намалената будност кај пилотите кога нивниот авион лета на автопилот.

Бројни студии во мојата лабораторија покажаа дека кога машината, наместо човекот, е идентификувана како извор на интеракција, таа предизвикува ментална кратенка во главите на корисниците што ја нарекуваме „машинска хеуристика“. " . Овој стенографија е верувањето дека машините се точни, објективни, непристрасни, непогрешливи итн. Тоа го замаглува расудувањето на корисникот и предизвикува корисникот прекумерно да им верува на машините. Сепак, едноставното разочарување на луѓето за непогрешливоста на вештачката интелигенција не е доволно, бидејќи е познато дека луѓето потсвесно претпоставуваат дека имаат вештина дури и кога технологијата не го гарантира тоа.

Истражувањата исто така покажаа дека луѓето ги третираат компјутерите како општествени суштества кога машините покажуваат и најмала навестување на хуманост, како што е употребата на разговорен јазик. Во овие случаи, луѓето применуваат општествени правила на човечка интеракција, како што се учтивост и реципроцитет. Значи, кога компјутерите изгледаат чувствителни, луѓето имаат тенденција слепо да им веруваат. Потребна е регулатива за да се осигура дека производите со вештачка интелигенција ја заслужуваат оваа доверба и дека не ја користат.

ВИ претставува уникатен предизвик затоа што, за разлика од традиционалните инженерски системи, дизајнерите не можат да бидат сигурни како ќе функционираат системите со вештачка интелигенција. Кога традиционален автомобил излезе од фабриката, инженерите точно знаеја како ќе се претстави. Но, со самоуправувачки автомобили, инженери никогаш не можат да бидат сигурни како ќе се однесуваат во нови ситуации .

Тешкотии во контролирањето на иновациите

Во последно време, илјадници луѓе ширум светот се восхитуваат на тоа што произведуваат големите генеративни модели на вештачка интелигенција како GPT-4 и DALL-E 2 како одговор на нивните предлози. Ниту еден од инженерите вклучени во развојот на овие модели со вештачка интелигенција не можеше да ви каже што точно ќе произведат моделите. За да се комплицираат работите, овие модели се менуваат и еволуираат со уште поголема интеракција.

Сето ова значи дека постои голем потенцијал за погрешно палење. Затоа, многу зависи од тоа како се имплементираат системите за вештачка интелигенција и какви одредби за прибегнување се во сила кога ќе се наштети на човековата сензитивност или благосостојба. ВИ е повеќе инфраструктура, како автопат. Можете да го дизајнирате за да го обликувате човечкото однесување во колективот, но ќе ви требаат механизми за справување со злоупотреби, како што се брзо возење и непредвидливи настани, како несреќи.

Програмерите на вештачката интелигенција исто така ќе треба да бидат извонредно креативни во предвидувањето на начините на кои системот би можел да се однесува и да се обидат да предвидат потенцијални прекршувања на општествените стандарди и одговорности. Ова значи дека има потреба од регулаторни или управувачки рамки кои се потпираат на периодични ревизии и проверка на резултатите и производите на вештачката интелигенција, иако верувам дека овие рамки треба да признаат и дека дизајнерите на системот не можат секогаш да бидат одговорни за инциденти.

Комбинирање на „меки“ и „тврди“ пристапи

Кејсон Шмит, асистент професор по јавно здравје, Универзитетот А&М во Тексас

Регулирањето на вештачката интелигенција е комплицирано . За добро да ја прилагодите вештачката интелигенција, прво треба defiда ја разберете вештачката интелигенција и да ги разберете очекуваните ризици и придобивки од вештачката интелигенција. DefiЛегализирањето на вештачката интелигенција е важно за да се идентификува што е предмет на законот. Но, технологиите за вештачка интелигенција сè уште се развиваат, па затоа е тешко defiзаврши еден defiстабилна правна дефиниција.

Разбирањето на ризиците и придобивките од вештачката интелигенција е исто така важно. Добрата регулатива треба да ги максимизира јавните придобивки додека ги минимизира ризиците. Сепак, апликациите за вештачка интелигенција сè уште се појавуваат, па затоа е тешко да се знае или да се предвиди кои би можеле да бидат идните ризици или придобивки. Овие типови на непознати ги прават новите технологии како што е вештачката интелигенција исклучително тешко се регулира со традиционалните закони и прописи.

Пратениците се често премногу бавно за прилагодување на брзо менување на технолошката средина. Некој нови закони се застарени во моментот кога се издаваат или направени извршни. Без нови закони, регулатори мора да ги користат старите закони во лице нови проблеми . Понекогаш ова води до правни бариери по социјални бенефиции o правни дупки по штетни однесувања .

Мек закон

мек закон “ се алтернатива на традиционалните законодавни пристапи со „тврдо право“ насочени кон спречување на конкретни прекршувања. Во пристапот на мекото право, приватна организација воспоставува правила или стандарди за членовите на индустријата. Тие можат да се променат побрзо од традиционалното законодавство. Тоа го прави ветувајќи меки закони за новите технологии бидејќи тие можат брзо да се прилагодат на новите апликации и ризици. Сепак, Меките закони може да значат меко спроведување .

Меган Доер , Џенифер Вагнер e io (Кејсон Шмит) предлагаме трет начин: Copyleft AI со доверливо спроведување (CAITE) . Овој пристап комбинира два многу различни концепти во интелектуалната сопственост: лиценци copyleft e patent troll.

Копирај ги левите лиценци

Лиценците copyleft ви овозможува лесно користење, повторно користење или менување на содржината според условите на лиценцата, како што е софтверот со отворен код. Модел CAITE користат лиценци copyleft да бара од корисниците на вештачка интелигенција да следат конкретни етички упатства, како што се транспарентни проценки на влијанието на пристрасноста.

Во нашиот модел, овие лиценци, исто така, го пренесуваат законското право за спроведување на прекршувања на лиценците на доверлива трета страна. Ова создава ентитет за извршување што постои единствено за да ги спроведува етичките стандарди за вештачка интелигенција и може делумно да се финансира со казни за неетичко однесување. Овој ентитет е како а patent troll бидејќи е приватен наместо државен и се поддржува себеси преку спроведување на законските права на интелектуална сопственост што ги собира од други. Во овој случај, наместо да работи за профит, ентитетот спроведува етички насоки definite во лиценци.

Овој модел е флексибилен и прилагодлив за да ги задоволи потребите на околината со вештачка интелигенција која постојано се менува. Тој, исто така, дозволува значителни опции за спроведување како традиционален владин регулатор. На овој начин, ги комбинира најдобрите елементи на тврдо и меко законски пристапи за да одговори на уникатните предизвици на вештачката интелигенција.

Четири клучни прашања што треба да се постават

Џон Виласенор, професор по електротехника, право, јавна политика и менаџмент, Универзитетот во Калифорнија, Лос Анџелес

На извонреден неодамнешен напредок генеративната вештачка интелигенција базирана на модели на големи јазици ја поттикнува побарувачката за создавање нова регулатива специфична за вештачката интелигенција. Еве четири клучни прашања што треба да си ги поставите:

1) Дали има потреба од нова специфична регулатива за ВИ? 

Многу од потенцијално проблематичните резултати на системите за вештачка интелигенција веќе се опфатени со постоечките рамки. Ако алгоритам за вештачка интелигенција што го користи банката за оценување на барањата за заем води до расно дискриминаторски одлуки за заеми, тоа би го прекршило Законот за фер домување. рамка за следење правни лекови .

2) Кои се ризиците од регулирање на технологијата што брзо се развива врз основа на снимката од времето? 

Класичен пример за ова е Закон за зачувани комуникации , кој беше донесен во 1986 година за да се справи со тогашните иновативни дигитални комуникациски технологии како што е е-поштата. При донесувањето на SCA, Конгресот обезбеди значително помала заштита на приватноста за е-пошта постари од 180 дена.

Образложението беше дека ограниченото складирање значело дека луѓето постојано ги чистат своите сандачиња со бришење постари пораки за да направат простор за нови. Како резултат на тоа, пораките архивирани повеќе од 180 дена се сметаа за помалку важни од перспектива на приватност. Нејасно е дали оваа логика некогаш имала смисла, и секако нема смисла во 20-тите, кога повеќето од нашите е-пошта и другите архивирани дигитални комуникации се стари повеќе од шест месеци.

Вообичаен одговор на загриженоста за регулирање на технологијата заснована на една снимка со текот на времето е овој: ако некој закон или регулатива станат застарени, ажурирајте ги. Полесно е да се каже отколку да се направи. Повеќето луѓе се согласуваат дека SCA стана застарена пред неколку децении. Но, бидејќи Конгресот не беше во можност конкретно да се договори за тоа како да се ревидира одредбата од 180 дена, таа сè уште е во тек повеќе од една третина од еден век по нејзиното донесување.

3) Кои се потенцијалните несакани последици? 

Il Дозволете им на државите и на жртвите да се борат против Законот за трговија со сексуални односи преку Интернет од 2017 година тоа беше закон донесен во 2018 година што тој го ревидираше Дел 230 од Законот за пристојност на комуникациите со цел борба против трговијата со луѓе со секс. Иако има малку докази дека тој ја намалил трговијата со сексуални односи, тој имал а исклучително проблематично влијание на различна група на луѓе: сексуални работници кои се потпираа на веб-локации кои беа офлајн од FOSTA-SESTA за да разменуваат информации за опасните клиенти. Овој пример ја покажува важноста од земање на широк поглед на потенцијалните ефекти од предложените регулативи.

4) Кои се економските и геополитичките импликации? 

Ако регулаторите во САД преземат акција за намерно да го забават напредокот во вештачката интелигенција, тоа едноставно ќе ги поттикне инвестициите и иновациите - и како резултат на тоа создавање работни места - на друго место. Иако новонастанатата вештачка интелигенција предизвикува многу грижи, таа исто така ветува дека ќе донесе огромни придобивки во области како што се инструкции , медицина , производство , безбедноста на транспортот , земјоделството , метеоролошки превизии , пристап до правни услуги и повеќе.

Верувам дека регулативите за вештачка интелигенција изготвени имајќи ги предвид горенаведените четири прашања ќе имаат поголема веројатност успешно да ги решат потенцијалните штети на вештачката интелигенција, истовремено обезбедувајќи пристап до неговите придобивки.

Оваа статија е слободно извадена од The ​​Conversation, независна непрофитна новинска организација посветена на споделување на знаењето на академски експерти.

Поврзани читања

BlogInnovazione.it

Билтен за иновации
Не пропуштајте ги најважните вести за иновациите. Пријавете се за да ги добивате по е-пошта.

Последни написи

Veeam ја има најсеопфатната поддршка за ransomware, од заштита до одговор и обновување

Coveware од Veeam ќе продолжи да обезбедува услуги за одговор на инциденти на сајбер изнуда. Coveware ќе понуди форензика и способности за санација…

Април 23 2024

Зелена и дигитална револуција: Како предвидливото одржување ја трансформира индустријата за нафта и гас

Предвидливото одржување го револуционизира секторот за нафта и гас, со иновативен и проактивен пристап кон управувањето со постројките.…

Април 22 2024

Антимонополскиот регулатор на Обединетото Кралство го покренува алармот на BigTech поради GenAI

Обединетото Кралство CMA издаде предупредување за однесувањето на Big Tech на пазарот на вештачка интелигенција. Таму…

Април 18 2024

Casa Green: енергетска револуција за одржлива иднина во Италија

Уредбата за „Case Green“, формулирана од Европската унија за подобрување на енергетската ефикасност на зградите, го заврши својот законодавен процес со…

Април 18 2024

Читајте иновации на вашиот јазик

Билтен за иновации
Не пропуштајте ги најважните вести за иновациите. Пријавете се за да ги добивате по е-пошта.

Следете нас