Членове

Регулиране на ИИ: 3 експерти обясняват защо е трудно да се прави и е важно да се справяте добре

Мощните нови системи за изкуствен интелект могат да разширят измамите и дезинформацията, което да доведе до широко разпространени призиви за държавно регулиране. Но това е по-лесно да се каже, отколкото да се направи и може да има непредвидени последици

Очаквано време за четене: 11 Minuti

плоча фалшиви снимки на Доналд Тръмп, арестуван от полицаи в Ню Йорк, към чатбот, описващ такъв компютърен учен много жив и загинал трагично , способността на новото поколение системи изкуствен интелект генеративният стремеж за създаване на завладяващ, но фиктивен текст и изображения предизвиква тревога за измама със стероиди и дезинформация. Наистина, на 29 март 2023 г. група изследователи на ИИ и фигури от индустрията призоваха индустрията да преустанови по-нататъшното обучение по най-новите технологии на ИИ или, като изключи това, правителствата да „наложат мораториум“.

Генератори на изображения като DALL-E , По средата на пътуването e Стабилна дифузия и генератори на съдържание като Бард , ChatGPT , чинчила e Обаждания – вече са достъпни за милиони хора и не изискват технически познания за използване.

Като се има предвид разгръщащият се пейзаж на технологичните компании, които внедряват AI системи и ги тестват пред обществеността, политиците трябва да се запитат дали и как да регулират нововъзникващите технологии. The Conversation помоли трима експерти по технологична политика да обяснят защо регулирането на AI е такова предизвикателство и защо е толкова важно да го направите правилно.

Човешки слабости и движеща се цел

S. Shyam Sundar, професор по мултимедийни ефекти и директор, Център за социално отговорен изкуствен интелект, Penn State

Причината за регулиране на изкуствения интелект не е, че технологията е извън контрол, а защото човешкото въображение е непропорционално. Изумителното медийно отразяване подхранва ирационални вярвания относно възможностите и съзнанието на ИИ. Тези вярвания се основават на " пристрастие към автоматизацията ” или върху тенденцията да разочароваме бдителността си, когато машините изпълняват задача. Пример е намалена бдителност сред пилотите когато техният самолет лети на автопилот.

Многобройни проучвания в моята лаборатория показаха, че когато машина, а не човек, бъде идентифицирана като източник на взаимодействие, това задейства ментален пряк път в съзнанието на потребителите, който наричаме „евристика на машината“. " . Тази стенограма е убеждението, че машините са точни, обективни, безпристрастни, непогрешими и т.н. Това замъглява преценката на потребителя и го кара да се доверява прекомерно на машините. Обаче простото разочарование на хората относно непогрешимостта на ИИ не е достатъчно, тъй като е известно, че хората подсъзнателно предполагат умения, дори когато технологията не го гарантира.

Изследванията също показват, че хората се отнасят към компютрите като към социални същества когато машините показват дори най-малкия намек за човечност, като използването на разговорен език. В тези случаи хората прилагат социални правила на човешкото взаимодействие, като учтивост и реципрочност. Така че, когато компютрите изглеждат разумни, хората са склонни да им се доверяват сляпо. Регулирането е необходимо, за да се гарантира, че продуктите с изкуствен интелект заслужават това доверие и не го експлоатират.

AI представлява уникално предизвикателство, тъй като, за разлика от традиционните инженерни системи, дизайнерите не могат да бъдат сигурни как ще работят AI системите. Когато традиционен автомобил излезе от фабриката, инженерите знаеха точно как ще се представи той. Но със самоуправляващи се автомобили, инженери никога не могат да бъдат сигурни как ще се държат в нови ситуации .

Трудности при контролиране на иновациите

Напоследък хиляди хора по света се удивиха какво произвеждат големите генеративни AI модели като GPT-4 и DALL-E 2 в отговор на техните предложения. Никой от инженерите, участващи в разработването на тези AI модели, не може да ви каже какво точно ще произвеждат моделите. За да се усложнят нещата, тези модели се променят и еволюират с все по-голямо взаимодействие.

Всичко това означава, че има голям потенциал за прекъсване на запалването. Следователно много зависи от това как се прилагат системите за изкуствен интелект и какви са разпоредбите за защита, когато човешката чувствителност или благополучие са накърнени. AI е по-скоро инфраструктура, като магистрала. Можете да го проектирате така, че да оформя човешкото поведение в колектива, но ще ви трябват механизми за справяне със злоупотреби, като превишена скорост, и непредвидими събития, като катастрофи.

Разработчиците на AI също ще трябва да бъдат изключително креативни в предвиждането на начините, по които системата може да се държи и да се опитат да предвидят потенциални нарушения на социалните стандарти и отговорности. Това означава, че има нужда от регулаторни или управленски рамки, които разчитат на периодични одити и контрол на резултатите и продуктите на ИИ, въпреки че вярвам, че тези рамки трябва също да признаят, че дизайнерите на системи не винаги могат да бъдат държани отговорни за инциденти.

Комбиниране на „меки” и „твърди” подходи

Кейсън Шмит, асистент по обществено здраве, Тексаски университет A&M

Регулирането на изкуствения интелект е сложно . За да настроите добре AI, първо трябва defiизчистете AI и разберете очакваните рискове и ползи от AI. DefiЗаконното подаване на AI е важно за идентифициране на това, което е предмет на закона. Но AI технологиите все още се развиват, така че е трудно defiзавърши едно defiстабилна правна дефиниция.

Разбирането на рисковете и ползите от ИИ също е важно. Доброто регулиране трябва да максимизира обществените ползи, като същевременно минимизира рисковете. Приложенията за изкуствен интелект обаче все още се появяват, така че е трудно да се знае или предвиди какви могат да бъдат бъдещите рискове или ползи. Тези видове неизвестни правят нововъзникващите технологии като AI изключително трудно се регулира с традиционните закони и разпоредби.

Законодателите са често твърде бавно за приспособяване към бързо променящата се технологична среда. Някой нови закони са остарели към момента на издаването им или стана изпълнителен. Без нови закони, регулатори те трябва да използват старите закони на участник нови проблеми . Понякога това води до законови бариери за социални осигуровки o законови вратички за вредни поведения .

Soft Law

мек закон ” са алтернативата на традиционните законодателни подходи на „твърдото право”, насочени към предотвратяване на конкретни нарушения. При подхода с незадължителна юридическа сила частна организация създава правила или стандарти за членове на индустрията. Те могат да се променят по-бързо от традиционното законодателство. Това прави обещаващи меки закони за нововъзникващи технологии, защото могат бързо да се адаптират към нови приложения и рискове. Въпреки това, Меките закони могат да означават меко прилагане .

Меган Доер , Дженифър Вагнер e io (Кейсън Шмит) предлагаме трети начин: Copyleft AI with Trusted Enforcement (CAITE) . Този подход съчетава две много различни концепции в интелектуалната собственост: лицензи copyleft e patent troll.

Копиране на леви лицензи

Лицензите copyleft ви позволяват лесно да използвате, използвате повторно или променяте съдържание съгласно условията на лиценз, като например софтуер с отворен код. Модел CAITE използвайте лицензи copyleft да изискват от потребителите на AI да следват конкретни етични насоки, като например прозрачни оценки на въздействието на пристрастията.

В нашия модел тези лицензи също прехвърлят законното право за налагане на нарушения на лиценза на доверена трета страна. Това създава правоприлагащ орган, който съществува единствено за прилагане на етичните стандарти на AI и може да бъде финансиран отчасти от глоби за неетично поведение. Това образувание е като a patent troll тъй като е по-скоро частна, отколкото държавна и се издържа чрез налагане на законните права върху интелектуалната собственост, които събира от други. В този случай, вместо да работи за печалба, предприятието прилага етични насоки definite в лицензи.

Този модел е гъвкав и адаптивен, за да отговори на нуждите на непрекъснато променящата се AI среда. Той също така позволява значителни възможности за прилагане като традиционен държавен регулатор. По този начин той съчетава най-добрите елементи на подходи с твърдо и незадължително законодателство, за да отговори на уникалните предизвикателства на ИИ.

Четири ключови въпроса, които трябва да зададете

Джон Виласенор, професор по електроинженерство, право, обществена политика и управление, Калифорнийски университет, Лос Анджелис

на изключителен скорошен напредък в големи езикови модели генеративният AI стимулира търсенето за създаване на нова регулация, специфична за AI. Ето четири ключови въпроса, които да си зададете:

1) Има ли нужда от нова специфична регулация за ИИ? 

Много от потенциално проблемните резултати от системите с ИИ вече са разгледани от съществуващите рамки. Ако AI алгоритъм, използван от банка за оценка на молбите за заем, доведе до расово дискриминационни решения за отпускане на заеми, това би нарушило Закона за справедливо жилищно настаняване.Ако AI софтуерът в автомобил без водач причини инцидент, законът за отговорността на продукта предвижда рамка за търсене на средства за защита .

2) Какви са рисковете от регулиране на бързо развиваща се технология, базирана на моментна снимка на времето? 

Класически пример за това е Закон за съхранените комуникации , който беше приет през 1986 г., за да се справи с тогавашните иновативни цифрови комуникационни технологии като имейл. При приемането на SCA Конгресът осигури значително по-малка защита на поверителността на имейли, по-стари от 180 дни.

Обосновката беше, че ограниченото място за съхранение означава, че хората непрекъснато почистват своите входящи кутии, като изтриват по-стари съобщения, за да направят място за нови. В резултат на това съобщенията, архивирани за повече от 180 дни, се считат за по-малко важни от гледна точка на поверителността. Не е ясно дали тази логика някога е имала смисъл и със сигурност няма смисъл през 20-те години на миналия век, когато повечето от нашите имейли и други архивирани цифрови комуникации са на повече от шест месеца.

Често срещан отговор на притесненията относно регулирането на технологията въз основа на една моментна снимка с течение на времето е следният: Ако закон или наредба стане остарял, актуализирайте го. По-лесно е да се каже, отколкото да се направи. Повечето хора са съгласни, че SCA е остаряла преди десетилетия. Но тъй като Конгресът не успя да се споразумее конкретно как да преразгледа разпоредбата за 180 дни, тя все още е в книгите повече от една трета от век след влизането в сила.

3) Какви са потенциалните непредвидени последици? 

Il Позволете на държавите и жертвите да се борят срещу Закона за онлайн сексуалния трафик от 2017 г това беше закон, приет през 2018 г., който той преразгледа Раздел 230 от Закона за благоприличие в комуникациите с цел борба с трафика за сексуална употреба. Въпреки че има малко доказателства, че той е намалил трафика на сексуални услуги, той е имал изключително проблемно въздействие върху различна група хора: секс работници, които разчитаха на уебсайтове, преместени офлайн от FOSTA-SESTA, за да обменят информация за опасни клиенти. Този пример показва значението на широкото разглеждане на потенциалните ефекти от предложените разпоредби.

4) Какви са икономическите и геополитическите последици? 

Ако регулаторите в САЩ предприемат действия за умишлено забавяне на напредъка в ИИ, това просто ще тласне инвестициите и иновациите – и в резултат на това създаването на работни места – другаде. Докато нововъзникващият AI поражда много опасения, той също обещава да донесе огромни ползи в области като инструкция , медицина , производство , транспортна безопасност , селското стопанство , предварителни метеорологични , достъп до правни услуги и още.

Вярвам, че регулациите за ИИ, изготвени с оглед на горните четири въпроса, ще имат по-голяма вероятност да се справят успешно с потенциалните вреди от ИИ, като същевременно гарантират достъп до ползите от него.

Тази статия е свободно извлечена от The Conversation, независима новинарска организация с нестопанска цел, посветена на споделянето на знанията на академични експерти.

Свързани четения

BlogInnovazione.it

Иновационен бюлетин
Не пропускайте най-важните новини за иновациите. Регистрирайте се, за да ги получавате по имейл.

Последни статии

Предимствата на страниците за оцветяване за деца - свят на магия за всички възрасти

Развитието на фини двигателни умения чрез оцветяване подготвя децата за по-сложни умения като писане. Оцветявам…

2 май 2024

Бъдещето е тук: Как корабната индустрия революционизира глобалната икономика

Военноморският сектор е истинска световна икономическа сила, която се е насочила към пазар от 150 милиарда...

1 май 2024

Издателите и OpenAI подписват споразумения за регулиране на потока от информация, обработвана от изкуствения интелект

Миналия понеделник Financial Times обяви сделка с OpenAI. FT лицензира своята журналистика от световна класа...

30 април 2024

Онлайн плащания: Ето как услугите за поточно предаване ви карат да плащате завинаги

Милиони хора плащат за стрийминг услуги, като плащат месечни абонаментни такси. Разпространено е мнението, че вие…

29 април 2024

Прочетете Иновация на вашия език

Иновационен бюлетин
Не пропускайте най-важните новини за иновациите. Регистрирайте се, за да ги получавате по имейл.

Следвайте ни