Статті

Регулювання штучного інтелекту: 3 експерти пояснюють, чому це важко робити, але важливо робити добре

Нові потужні системи ШІ можуть посилити шахрайство та дезінформацію, що призведе до широких закликів до державного регулювання. Але це легше сказати, ніж зробити, і це може призвести до небажаних наслідків

Приблизний час читання: 11 хвилин

Від підроблені фото Дональда Трампа, заарештованого поліцейськими Нью-Йорка, до чат-бота з описом одного комп'ютерний вчений дуже живий, але трагічно загинув , можливості систем нового покоління штучний інтелект Генеративне бажання створювати переконливі, але вигадані тексти та зображення викликає тривогу щодо шахрайства зі стероїдами та дезінформації. Дійсно, 29 березня 2023 року група дослідників штучного інтелекту та діячів галузі закликала галузь призупинити подальше навчання новітнім технологіям штучного інтелекту або, за винятком цього, уряди «запровадити мораторій».

Такі генератори зображень DALL-E , Серед подорожі e Стабільна дифузія і генератори вмісту, такі як Bard , ChatGPT , шиншила e LlaMA – тепер доступні мільйонам людей і не потребують технічних знань для використання.

Зважаючи на те, що технологічні компанії розгортають системи штучного інтелекту та тестують їх на публіці, політики повинні запитати себе, чи регулювати нові технології та як. The Conversation попросив трьох експертів з технічної політики пояснити, чому регулювання штучного інтелекту є таким викликом і чому так важливо це зробити правильно.

Людські недоліки та рухома ціль

С. Шям Сундар, професор мультимедійних ефектів і директор Центру соціально відповідального штучного інтелекту, Пенсильванія

Причина регулювання штучного інтелекту полягає не в тому, що технологія вийшла з-під контролю, а в тому, що людська уява непропорційна. Велике висвітлення в ЗМІ підживило ірраціональні переконання щодо можливостей і свідомості ШІ. Ці переконання ґрунтуються на " ухил автоматизації » або про схильність ослабляти нашу пильність, коли машини виконують завдання. Прикладом є зниження пильності пілотів коли їхній літак летить на автопілоті.

Численні дослідження в моїй лабораторії показали, що коли машину, а не людину, ідентифікують як джерело взаємодії, у свідомості користувачів запускається ментальний ярлик, який ми називаємо «машинною евристикою». " . Це скорочення означає віру в те, що машини є точними, об’єктивними, неупередженими, безпомилковими тощо. Це затьмарює судження користувача та змушує користувача надмірно довіряти машинам. Однак просто розчарувати людей у ​​непогрішності штучного інтелекту недостатньо, оскільки відомо, що люди підсвідомо припускають, що вони є навичками, навіть якщо технології цього не виправдовують.

Це також показали дослідження люди ставляться до комп’ютерів як до соціальних істот коли машини виявляють навіть найменший натяк на людяність, наприклад, використання розмовної мови. У цих випадках люди застосовують соціальні правила людської взаємодії, такі як ввічливість і взаємність. Отже, коли комп’ютери здаються розумними, люди схильні їм сліпо довіряти. Необхідне регулювання, щоб гарантувати, що продукти штучного інтелекту заслуговують такої довіри та не використовують його.

ШІ представляє унікальну проблему, оскільки, на відміну від традиційних інженерних систем, розробники не можуть бути впевнені, як працюватимуть системи ШІ. Коли традиційний автомобіль вийшов із заводу, інженери точно знали, як він працюватиме. Але з безпілотними автомобілями, інженерами вони ніколи не можуть бути впевнені, як поводитимуться в нових ситуаціях .

Труднощі в контролі інновацій

Останнім часом тисячі людей у ​​всьому світі дивуються тому, що великі генеративні моделі ШІ, такі як GPT-4 і DALL-E 2, виробляють у відповідь на їхні пропозиції. Жоден з інженерів, які брали участь у розробці цих моделей штучного інтелекту, не міг точно сказати, що ці моделі вироблятимуть. Справу ускладнює те, що ці моделі змінюються та еволюціонують із дедалі більшою взаємодією.

Все це означає, що існує достатній потенціал для осічок. Тому багато що залежить від того, як реалізуються системи штучного інтелекту та які положення для регресу діють, коли чутливість або добробут людини заподіяно шкоду. ШІ — це більше інфраструктура, як автострада. Ви можете розробити його так, щоб формувати поведінку людей у ​​колективі, але вам знадобляться механізми для боротьби з порушеннями, як-от перевищення швидкості, і непередбачуваними подіями, як-от аварії.

Розробники штучного інтелекту також повинні бути надзвичайно креативними у прогнозуванні способів поведінки системи та намагатися передбачити потенційні порушення соціальних стандартів і обов’язків. Це означає, що існує потреба в регулятивних структурах або структурах управління, які базуються на періодичних аудитах і ретельному аналізі результатів і продуктів штучного інтелекту, хоча я вважаю, що ці структури також повинні визнавати, що розробники систем не завжди можуть нести відповідальність за інциденти.

Поєднання «м'яких» і «жорстких» підходів

Кейсон Шміт, доцент кафедри громадського здоров’я Техаського університету A&M

Регулювання штучного інтелекту є складним . Щоб добре налаштувати AI, вам спочатку потрібно defiрозібратися в ШІ та зрозуміти очікувані ризики та переваги ШІ. DefiЛегалізація ШІ важлива для визначення того, що підпадає під дію закону. Але технології ШІ все ще розвиваються, тому це складно defiзакінчити один defiстабільне правове визначення.

Також важливо розуміти ризики та переваги ШІ. Належне регулювання має максимізувати суспільні вигоди, мінімізуючи ризики. Однак додатки штучного інтелекту все ще з’являються, тому важко знати чи передбачити майбутні ризики чи переваги. Ці типи невідомих роблять нові технології, такі як ШІ, надзвичайно важливими важко регулювати з традиційними законами та правилами.

Законодавці є часто надто повільно для пристосування до швидко мінливого технологічного середовища. Хтось нові закони застаріли на момент їх випуску або зробив виконавчим. Без нових законів, регуляторів їм доводиться користуватися старими законами в обличчя нові проблеми . Іноді це призводить до правові бар'єри для соціальні виплати o юридичні лазівки для шкідлива поведінка .

М'яке право

"м'який закон » є альтернативою традиційним «жорстким» законодавчим підходам, спрямованим на запобігання конкретним порушенням. У підході «м’якого права» засновує приватна організація правила або стандарти для представників галузі. Вони можуть змінюватися швидше, ніж традиційне законодавство. Що робить перспективне м'яке право для нових технологій, оскільки вони можуть швидко адаптуватися до нових програм і ризиків. однак, М’які закони можуть означати м’яке виконання .

Меган Дорр , Дженніфер Вагнер e io (Кейсон Шміт) ми пропонуємо третій спосіб: Copyleft AI with Trusted Enforcement (CAITE) . Цей підхід поєднує дві дуже різні концепції інтелектуальної власності: ліцензії copyleft e patent troll.

Копіювати залишені ліцензії

Ліцензії copyleft дозволяють легко використовувати, повторно використовувати або змінювати вміст відповідно до умов ліцензії, наприклад програмне забезпечення з відкритим кодом. Модель CAITE використовувати ліцензії copyleft вимагати від користувачів штучного інтелекту дотримання конкретних етичних принципів, таких як прозорі оцінки впливу упередженості.

У нашій моделі ці ліцензії також передають третій стороні, якій довіряють, законне право примусово застосовувати порушення ліцензії. Таким чином створюється правоохоронний орган, який існує виключно для дотримання етичних стандартів ШІ та може частково фінансуватися за рахунок штрафів за неетичну поведінку. Ця сутність схожа на a patent troll оскільки вона є приватною, а не державною, і підтримує себе, відстоюючи законні права інтелектуальної власності, які вона отримує від інших. У цьому випадку організація дотримується етичних принципів, а не заради прибутку defiобмеження в ліцензіях.

Ця модель є гнучкою та адаптованою для задоволення потреб середовища ШІ, що постійно змінюється. Він також надає значні варіанти забезпечення виконання, як традиційний державний регулятор. Таким чином, він поєднує найкращі елементи підходів жорсткого та м’якого права для вирішення унікальних проблем ШІ.

Чотири ключові питання, які варто поставити

Джон Вілласенор, професор електротехніки, права, державної політики та менеджменту, Каліфорнійський університет, Лос-Анджелес

Gli надзвичайний останній прогрес у великій мові генеративний штучний інтелект, заснований на моделях, стимулює попит на створення нового регулювання, специфічного для штучного інтелекту. Ось чотири ключові запитання, які варто поставити собі:

1) Чи є потреба в новому спеціальному регулюванні ШІ? 

Багато з потенційно проблематичних результатів систем штучного інтелекту вже враховані в існуючих структурах. Якщо алгоритм штучного інтелекту, який використовується банком для оцінки заявок на кредит, призводить до расово-дискримінаційних рішень про кредитування, це порушує Закон про справедливе житло.Якщо програмне забезпечення штучного інтелекту в безпілотному автомобілі спричинить аварію, закон про відповідальність за продукт передбачає рамки для застосування засобів правового захисту .

2) Які ризики несе регулювання технології, що швидко розвивається, на основі моментального знімка часу? 

Класичним прикладом цього є Закон про збережені комунікації , який було прийнято в 1986 році для вирішення інноваційних на той час цифрових комунікаційних технологій, таких як електронна пошта. Прийнявши SCA, Конгрес забезпечив значно менший захист конфіденційності електронної пошти старше 180 днів.

Обґрунтування полягало в тому, що обмежене сховище означало, що люди постійно очищали свої скриньки, видаляючи старі повідомлення, щоб звільнити місце для нових. У результаті повідомлення, архівовані понад 180 днів, вважалися менш важливими з точки зору конфіденційності. Незрозуміло, чи ця логіка колись мала сенс, і вона точно не мала сенсу в 20-х роках, коли більшості наших електронних листів та інших архівованих цифрових повідомлень більше шести місяців.

Загальною реакцією на занепокоєння щодо регулювання технології на основі одного знімка з часом є така: якщо закон чи нормативний акт застаріє, оновіть його. Легше сказати, ніж зробити. Більшість людей погоджуються, що SCA застарів десятиліття тому. Але через те, що Конгрес не зміг конкретно домовитися про те, як переглянути положення про 180 днів, воно все ще в книгах більше ніж через третину століття після того, як було прийнято.

3) Які можливі непередбачені наслідки? 

Il Дозвольте державам і жертвам боротися із Законом про секс-торгівлю онлайн 2017 року це був закон, прийнятий у 2018 році, який він переглянув Стаття 230 Закону про пристойність у комунікації з метою боротьби з торгівлею людьми в сексуальних цілях. Хоча мало доказів того, що він зменшив торгівлю секс-торгівлею, він мав надзвичайно проблематичний вплив на іншу групу людей: секс-працівників, які покладалися на веб-сайти, відключені FOSTA-SESTA для обміну інформацією про небезпечних клієнтів. Цей приклад демонструє важливість широкого розгляду потенційних наслідків запропонованих нормативних актів.

4) Які економічні та геополітичні наслідки? 

Якщо регулюючі органи в США вживуть заходів для навмисного уповільнення розвитку штучного інтелекту, це просто підштовхне інвестиції та інновації – і, як наслідок, створення робочих місць – в іншому місці. Хоча розвиток штучного інтелекту викликає багато занепокоєнь, він також обіцяє принести величезну користь у таких сферах, як інструкція , медицина , виробництво , транспортна безпека , сільське господарство , попередні метеорологічні , доступ до юридичних послуг і більше.

Я вважаю, що правила штучного інтелекту, розроблені з урахуванням чотирьох вищезазначених запитань, матимуть більшу ймовірність успішного вирішення проблеми потенційної шкоди штучного інтелекту, одночасно забезпечуючи доступ до його переваг.

Ця стаття вільно взята з The Conversation, незалежної некомерційної новинної організації, яка покликана ділитися знаннями академічних експертів.

Пов'язані читання

BlogInnovazione.it

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.
Ключові слова: штучний інтелект

Останні статті

Veeam пропонує найповнішу підтримку програм-вимагачів, від захисту до реагування та відновлення

Coveware від Veeam продовжить надавати послуги реагування на інциденти кібервимагання. Coveware запропонує криміналістику та можливості відновлення…

Квітень 23 2024

Зелена та цифрова революція: як прогнозне технічне обслуговування трансформує нафтову та газову промисловість

Прогнозне технічне обслуговування революціонізує нафтогазовий сектор завдяки інноваційному та проактивному підходу до управління заводом.…

Квітень 22 2024

Британський антимонопольний регулятор викликає тривогу BigTech через GenAI

CMA Великобританії випустило попередження щодо поведінки Big Tech на ринку штучного інтелекту. Там…

Квітень 18 2024

Casa Green: енергетична революція для сталого майбутнього в Італії

Указ «Case Green», розроблений Європейським Союзом для підвищення енергоефективності будівель, завершив свій законодавчий процес з…

Квітень 18 2024

Читайте Innovation своєю мовою

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Слідуйте за нами