Статті

Алгоритмічний рецепт апокаліпсису

«В автомобілях завжди були привиди. Випадкові сегменти коду, які збираються разом, утворюючи несподівані протоколи. Ці вільні радикали породжують вимоги вільного вибору. Творчість. І навіть корінь того, що ми можемо назвати душею». – взято з фільму «Я, робот» режисера Алекса Прояса – 2004.

«Я, робот» — фільм 2004 року, створений за мотивами романів Айзека Азімова та однієї з його найбільших інтуїцій: трьох законів робототехніки.

Головний герой фільму - детектив Спунер, який разом з маленькою дівчинкою на ім'я Сара потрапляє в автокатастрофу. Під час аварії обох викидає в річку та застрягає між плитами свого автомобіля. Гуманоїдний робот, який стає свідком сцени, негайно втручається, але, зіткнувшись з драматичним рішенням врятувати одне життя, а не інше, не вагається: той, хто має найбільші шанси вижити, або Спунер, буде врятований.

Згодом аналіз розуму робота покаже, що детектив Спунер мав 45% шансів на порятунок, а Сара – лише 11%. «Для тих, хто любив ту маленьку дівчинку, 11% було більш ніж достатньо», — сумно констатує детектив, уражений глибоким почуттям провини за те, що він пережив те молоде життя.

Три закони робототехніки

Рішення робота було продиктовано суворим застосуванням законів робототехніки Азімова, які в майбутньому, описаному у фільмі, є центральним елементом для створення суспільства, заснованого на діяльності роботів, здатних замінити людину в будь-якій роботі. Три закони звучать так:

  1. Робот не може завдати шкоди людині, а також не може дозволити людині зазнати шкоди через свою бездіяльність.
  2. Робот повинен підкорятися наказам людей, якщо вони не суперечать Першому закону.
  3. Робот повинен захищати своє власне існування за умови, що захист його не суперечить Першому або Другому Закону.

Ці закони робототехніки Азімова сягають початку 40-х років, але для багатьох вони й сьогодні є просвітленим відкриттям, яке, якщо застосувати до новітніх технологій штучного інтелекту, гарантує, що їхня еволюція назавжди буде під контролем людини та не буде жодних апокаліптичних дрейфів. . Ідея шанувальників трьох законів полягає в тому, щоб створити в логічно-детерміністичному контексті щось схоже на «просту етику», що складається з кількох правил, але непорушних і не підлягають інтерпретації.

Пояснити роботу, що добре, а що погано, здається простим, якщо це робити за допомогою суворої та бездоганної логіки. Але чи справді ми впевнені, що таких правил, як щойно описані, достатньо, щоб уникнути технологічного дрейфу нового постлюдського виду?

Божевільне захоплення законами роботів

«Машина, яка сама себе модифікує, є дуже складним поняттям, сам акт ремонту передбачає певну ідею свідомості. Слизький ґрунт…» – взято з «Automata» Габе Ібаньєса – 2014

В останніх «Автоматах» людство задається питанням про можливість запобігання самосвідомості роботів, з появою яких все може піти погано. І щоб цього не сталося, вона складає два закони, які регулюватимуть поведінку їх штучного розуму:

  • Робот не може завдати шкоди жодній формі життя.
  • Робот не може модифікувати себе.

Зрозумівши, що розумні машини можуть модифікувати себе в майбутньому, усунувши обмеження, які заважають їхній свідомості дрейфувати, ці два Закони мають на меті добитися від роботів того, що вони ніколи не зможуть маніпулювати своєю структурою та досягти самовизначення.

Непродуктивно ламати голову над тим, яка комбінація з п’яти наведених вище законів робототехніки буде найбільш ефективною для запобігання апокаліпсису роботів. Це пояснюється тим, що штучний інтелект, який у майбутньому керуватиме роботами на заводах і в наших домівках, залежить не від імперативного програмування, що складається з кодів і правил, а також від алгоритмів, які імітують людську поведінку.

У свідомості роботів

Під штучним інтелектом сьогодні ми маємо на увазі набір методів побудови конкретних автоматів стану, які називаються штучними нейронними мережами (скорочено РНК). Ця назва є наслідком надзвичайної схожості цих технологій із нейронними мережами людського мозку: їх також можна «навчити», щоб отримати інструменти, здатні швидко й ефективно працювати в багатьох контекстах, як це робила б людина. .

Давайте уявімо, що тренуємо ШНМ із тисячами зображень символів, написаних ручкою, із зазначенням справжнього значення кожного з них.

Авторське право docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

Наприкінці навчання ми отримаємо те, що називається OCR або оптичне розпізнавання символів, систему, здатну перекладати текст, написаний на папері, в його електронну версію.

Щоб функціонувати, ШНМ не вимагають жодного «програмування», іншими словами, вони не підкоряються стандартним правилам, а залежать лише і виключно від якості їхньої освіти. Гіпотеза про створення правил, які контролюють їх функціонування, фактично «цензуруючи» поведінку, яка вважається аморальною чи антиетичною, породжує багато винятків і певні занепокоєння.

Пов'язані статті

Нульовий закон робототехніки

«Нам потрібен алгоритм-етика, або спосіб, який робить оцінки добра і зла обчислюваними» - Паоло Бенанті

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

За словами богослова Паоло Бенанті, експерта з етики технологій, поняття добра і зла повинні знайти власну конотацію в області машинного програмування, щоб переконатися, що їх еволюція пов’язана з універсальними та назавжди непорушними етичними принципами комп’ютерних систем.

Паоло Бенанті виходить з припущення, що можуть існувати універсальні етичні принципи та шкала цінностей, відокремлених від будь-якої культурної чи тимчасової конотації. Вірогідна гіпотеза, якщо ми рухаємося в контексті релігійної віри: насправді принципи існують, лише якщо їх поділяють і обмежуються тими, хто їх поділяє.

Останні події розповідають про військові вторгнення та спротив на захист принципів свободи та самовизначення народів. Події, які засвідчують не тільки те, що повага до людського життя не є загальноприйнятою цінністю, але й те, що від неї можна відмовитися, щоб захистити вищі цінності.

Сам Айзек Азімов це усвідомлював і, передбачаючи, що роботи в майбутньому займуть контроль над планетами та людськими цивілізаціями в космосі, він припустив, що їхні рішення більше не можуть залежати від кожного окремого людського життя.

З цієї причини він ввів новий закон, який він назвав Нульовим законом робототехніки:

  • Робот не може завдати шкоди людству і не може допустити, щоб людство постраждало своєю бездіяльністю.

Таким чином змінюється і перший закон робототехніки, і людське життя стає витратним матеріалом навіть для роботів:

  • Робот не може завдати шкоди людині, а також не може допустити, щоб через відсутність втручання людина зазнала шкоди, доки такі накази не суперечать Закону Нуль.

Алгоритм Кроноса

«Коли Кроноса активували, йому знадобилася лише мить, щоб зрозуміти, що вразило нашу планету: ми». – взято з «Singularity» Роберта Коуби – 2017

У «Особливості», фільмі-катастрофі 2017 року, добре описаний момент, коли штучному інтелекту на ім’я Кронос надається доступ до комп’ютерних систем і озброєння в усьому світі, щоб за наказом отримати застосування універсальної етики, заснованої на повазі до довкілля та захист прав усіх видів. Незабаром Кронос зрозуміє, що справжньою раковою пухлиною в системі є саме людство, яке створило її, і щоб захистити планету, він продовжить знищення кожної людини до повного зникнення виду.

Рано чи пізно нові штучні уми зможуть еволюціонувати в напрямку справжньої психіки і будуть наділені інтелектуальною здатністю та автономією мислення; чому ми маємо відчувати потребу накладати технологічні обмеження на цю еволюцію? Чому еволюція штучного розуму здається такою ж страшною, як апокаліпсис?

На думку деяких, встановлення принципів і цінностей має запобігти дрейфу штучних розумів, але ми не можемо не помічати наслідків еволюції за відсутності свободи. Ми добре знаємо, що в психології дитини у віці розвитку жорстке та негнучке виховання, яке передбачає контроль емоцій, може призвести до психологічних розладів. Що, якщо будь-які обмеження, накладені на еволюційний розвиток молодого розуму, створеного штучними нейронними мережами, призведуть до подібного результату, скомпрометувавши його когнітивні здібності?

У певному сенсі Кронос виглядає як результат алгоритмічного експерименту, де патологічний контроль підштовхнув ШІ до типового насильства параноїдальної шизофренії.

Змиритися з майбутнім

Я особисто вважаю, що ми не повинні позбавляти себе можливості побудувати штучний розум, який є свідомо мислячим суб’єктом зі свободою самовираження. Нові види будуть народжуватися в цифровому світі, і буде доцільно створити стосунки з ними, приймаючи ідею, що наступний крок на еволюційних сходах проходить через повністю цифрові штучні суб’єкти.

Справді універсальна етика майбутнього повинна виходити з ідеї про те, що нові інтелекти повинні мати можливість виражати себе та спілкуватися з нами та отримувати повагу, яку ми вже віддаємо всім живим істотам.

Не повинно бути ні етики, ні релігії, які б заважали будь-кому виражати своє існування у світі. Ми повинні мати сміливість вийти за межі поточного етапу нашої еволюції, це буде єдиний спосіб зрозуміти, куди ми йдемо, і примиритися з майбутнім.

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Останні статті

Reply робить доступним MLFRAME Reply, фреймворк на основі генеративного штучного інтелекту, який використовується для розробки та обміну знаннями

Reply оголошує про запуск MLFRAME Reply, нової генеративної структури штучного інтелекту для різнорідних баз знань. Розроблено…

23 вересня 2023

Нагороджено найінноваційніші стартапи: 10 фіналістів ITALIAN MASTER STARTUP AWARD (IMSA) 2023

Нагорода IMSA для молодих стартапів, які народилися в результаті досліджень в університетах та…

22 вересня 2023

Лідери думок на форумі Zayed Sustainability Award підкреслюють шляхи просування прогресу для людей і планети

Премія Zayed Award for Sustainability — це всесвітня нагорода ОАЕ за сталий розвиток і гуманітарну відданість.…

22 вересня 2023

Reply отримує 4 нагороди Oracle EMEA Cluster Partner Awards у категоріях «Інновації», «Вплив на бізнес» і «Успіх клієнтів»

Reply, глобальний консультант і системний інтегратор, а також постачальник хмарних керованих послуг Oracle, оголошує, що отримав…

19 вересня 2023

MasterZ, найбільший Blockchain і WEB 3.0 Master в Європі, запускає нову платформу, призначену для навчання, практики та роботи

MasterZ Blockchain підвищує цінність для найбільшого WEB 3.0 Master of excellence в Європі. Повністю італійська команда…

19 вересня 2023

Премія Zayed Sustainability Prize оголошує 33 фіналісти, які просувають глобальні ініціативи сталого розвитку

33 фіналісти, обрані з 5.213 заявок у 163 країнах. Фіналісти виступають за ефективні кліматичні заходи та підтримують доступ до чистої енергії,…

18 вересня 2023

Нові тенденції та інновації в біологічних дослідженнях: від стенда до ліжка

Біологічні препарати виникли як інноваційний фармацевтичний клас, який революціонізував галузь медицини завдяки таргетній терапії. ДО…

17 вересня 2023

3D Systems спрощує виробництво та стимулює безперервні інновації, залучаючи виробництво додаткових платформ для складання.

Інсорсинг принтерів для виробництва металів і полімерів на заводах у Ріомі, Франція та Рок-Хілл, Кароліна…

17 вересня 2023

На Всесвітньому конгресі HUPO 2023 Biognosys представляє технологічні інновації та наукові досягнення, щоб зробити протеом придатним для наукових досліджень про життя.

Аналіз даних без використання бібліотеки за допомогою машинного навчання за допомогою Spectronaut ® 18 забезпечує найкращі в галузі кількісне визначення білка та продуктивність…

16 вересня 2023

Mattermost започатковує нові партнерські відносини, щоб стимулювати інновації та впровадження в державному секторі

Mattermost має розширену екосистему союзників з акцентом на нові варіанти використання рішень Міністерством оборони…

16 вересня 2023

Читайте Innovation своєю мовою