Статті

Алгоритмічний рецепт апокаліпсису

«В автомобілях завжди були привиди. Випадкові сегменти коду, які збираються разом, утворюючи несподівані протоколи. Ці вільні радикали породжують вимоги вільного вибору. Творчість. І навіть корінь того, що ми можемо назвати душею». – взято з фільму «Я, робот» режисера Алекса Прояса – 2004.

«Я, робот» — фільм 2004 року, створений за мотивами романів Айзека Азімова та однієї з його найбільших інтуїцій: трьох законів робототехніки.

Головний герой фільму - детектив Спунер, який разом з маленькою дівчинкою на ім'я Сара потрапляє в автокатастрофу. Під час аварії обох викидає в річку та застрягає між плитами свого автомобіля. Гуманоїдний робот, який стає свідком сцени, негайно втручається, але, зіткнувшись з драматичним рішенням врятувати одне життя, а не інше, не вагається: той, хто має найбільші шанси вижити, або Спунер, буде врятований.

Згодом аналіз розуму робота покаже, що детектив Спунер мав 45% шансів на порятунок, а Сара – лише 11%. «Для тих, хто любив ту маленьку дівчинку, 11% було більш ніж достатньо», — сумно констатує детектив, уражений глибоким почуттям провини за те, що він пережив те молоде життя.

Три закони робототехніки

Рішення робота було продиктовано суворим застосуванням законів робототехніки Азімова, які в майбутньому, описаному у фільмі, є центральним елементом для створення суспільства, заснованого на діяльності роботів, здатних замінити людину в будь-якій роботі. Три закони звучать так:

  1. Робот не може завдати шкоди людині, а також не може дозволити людині зазнати шкоди через свою бездіяльність.
  2. Робот повинен підкорятися наказам людей, якщо вони не суперечать Першому закону.
  3. Робот повинен захищати своє власне існування за умови, що захист його не суперечить Першому або Другому Закону.

Ці закони робототехніки Азімова сягають початку 40-х років, але для багатьох вони й сьогодні є просвітленим відкриттям, яке, якщо застосувати до новітніх технологій штучного інтелекту, гарантує, що їхня еволюція назавжди буде під контролем людини та не буде жодних апокаліптичних дрейфів. . Ідея шанувальників трьох законів полягає в тому, щоб створити в логічно-детерміністичному контексті щось схоже на «просту етику», що складається з кількох правил, але непорушних і не підлягають інтерпретації.

Пояснити роботу, що добре, а що погано, здається простим, якщо це робити за допомогою суворої та бездоганної логіки. Але чи справді ми впевнені, що таких правил, як щойно описані, достатньо, щоб уникнути технологічного дрейфу нового постлюдського виду?

Божевільне захоплення законами роботів

«Машина, яка сама себе модифікує, є дуже складним поняттям, сам акт ремонту передбачає певну ідею свідомості. Слизький ґрунт…» – взято з «Automata» Габе Ібаньєса – 2014

В останніх «Автоматах» людство задається питанням про можливість запобігання самосвідомості роботів, з появою яких все може піти погано. І щоб цього не сталося, вона складає два закони, які регулюватимуть поведінку їх штучного розуму:

  • Робот не може завдати шкоди жодній формі життя.
  • Робот не може модифікувати себе.

Зрозумівши, що розумні машини можуть модифікувати себе в майбутньому, усунувши обмеження, які заважають їхній свідомості дрейфувати, ці два Закони мають на меті добитися від роботів того, що вони ніколи не зможуть маніпулювати своєю структурою та досягти самовизначення.

Непродуктивно ламати голову над тим, яка комбінація з п’яти наведених вище законів робототехніки буде найбільш ефективною для запобігання апокаліпсису роботів. Це пояснюється тим, що штучний інтелект, який у майбутньому керуватиме роботами на заводах і в наших домівках, залежить не від імперативного програмування, що складається з кодів і правил, а також від алгоритмів, які імітують людську поведінку.

У свідомості роботів

Під штучним інтелектом сьогодні ми маємо на увазі набір методів побудови конкретних автоматів стану, які називаються штучними нейронними мережами (скорочено РНК). Ця назва є наслідком надзвичайної схожості цих технологій із нейронними мережами людського мозку: їх також можна «навчити», щоб отримати інструменти, здатні швидко й ефективно працювати в багатьох контекстах, як це робила б людина. .

Давайте уявімо, що тренуємо ШНМ із тисячами зображень символів, написаних ручкою, із зазначенням справжнього значення кожного з них.

Авторське право docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

Наприкінці навчання ми отримаємо те, що називається OCR або оптичне розпізнавання символів, систему, здатну перекладати текст, написаний на папері, в його електронну версію.

Щоб функціонувати, ШНМ не вимагають жодного «програмування», іншими словами, вони не підкоряються стандартним правилам, а залежать лише і виключно від якості їхньої освіти. Гіпотеза про створення правил, які контролюють їх функціонування, фактично «цензуруючи» поведінку, яка вважається аморальною чи антиетичною, породжує багато винятків і певні занепокоєння.

Нульовий закон робототехніки

«Нам потрібен алгоритм-етика, або спосіб, який робить оцінки добра і зла обчислюваними» - Паоло Бенанті

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

За словами богослова Паоло Бенанті, експерта з етики технологій, поняття добра і зла повинні знайти власну конотацію в області машинного програмування, щоб переконатися, що їх еволюція пов’язана з універсальними та назавжди непорушними етичними принципами комп’ютерних систем.

Паоло Бенанті виходить з припущення, що можуть існувати універсальні етичні принципи та шкала цінностей, відокремлених від будь-якої культурної чи тимчасової конотації. Вірогідна гіпотеза, якщо ми рухаємося в контексті релігійної віри: насправді принципи існують, лише якщо їх поділяють і обмежуються тими, хто їх поділяє.

Останні події розповідають про військові вторгнення та спротив на захист принципів свободи та самовизначення народів. Події, які засвідчують не тільки те, що повага до людського життя не є загальноприйнятою цінністю, але й те, що від неї можна відмовитися, щоб захистити вищі цінності.

Сам Айзек Азімов це усвідомлював і, передбачаючи, що роботи в майбутньому займуть контроль над планетами та людськими цивілізаціями в космосі, він припустив, що їхні рішення більше не можуть залежати від кожного окремого людського життя.

З цієї причини він ввів новий закон, який він назвав Нульовим законом робототехніки:

  • Робот не може завдати шкоди людству і не може допустити, щоб людство постраждало своєю бездіяльністю.

Таким чином змінюється і перший закон робототехніки, і людське життя стає витратним матеріалом навіть для роботів:

  • Робот не може завдати шкоди людині, а також не може допустити, щоб через відсутність втручання людина зазнала шкоди, доки такі накази не суперечать Закону Нуль.

Алгоритм Кроноса

«Коли Кроноса активували, йому знадобилася лише мить, щоб зрозуміти, що вразило нашу планету: ми». – взято з «Singularity» Роберта Коуби – 2017

У «Особливості», фільмі-катастрофі 2017 року, добре описаний момент, коли штучному інтелекту на ім’я Кронос надається доступ до комп’ютерних систем і озброєння в усьому світі, щоб за наказом отримати застосування універсальної етики, заснованої на повазі до довкілля та захист прав усіх видів. Незабаром Кронос зрозуміє, що справжньою раковою пухлиною в системі є саме людство, яке створило її, і щоб захистити планету, він продовжить знищення кожної людини до повного зникнення виду.

Рано чи пізно нові штучні уми зможуть еволюціонувати в напрямку справжньої психіки і будуть наділені інтелектуальною здатністю та автономією мислення; чому ми маємо відчувати потребу накладати технологічні обмеження на цю еволюцію? Чому еволюція штучного розуму здається такою ж страшною, як апокаліпсис?

На думку деяких, встановлення принципів і цінностей має запобігти дрейфу штучних розумів, але ми не можемо не помічати наслідків еволюції за відсутності свободи. Ми добре знаємо, що в психології дитини у віці розвитку жорстке та негнучке виховання, яке передбачає контроль емоцій, може призвести до психологічних розладів. Що, якщо будь-які обмеження, накладені на еволюційний розвиток молодого розуму, створеного штучними нейронними мережами, призведуть до подібного результату, скомпрометувавши його когнітивні здібності?

У певному сенсі Кронос виглядає як результат алгоритмічного експерименту, де патологічний контроль підштовхнув ШІ до типового насильства параноїдальної шизофренії.

Змиритися з майбутнім

Я особисто вважаю, що ми не повинні позбавляти себе можливості побудувати штучний розум, який є свідомо мислячим суб’єктом зі свободою самовираження. Нові види будуть народжуватися в цифровому світі, і буде доцільно створити стосунки з ними, приймаючи ідею, що наступний крок на еволюційних сходах проходить через повністю цифрові штучні суб’єкти.

Справді універсальна етика майбутнього повинна виходити з ідеї про те, що нові інтелекти повинні мати можливість виражати себе та спілкуватися з нами та отримувати повагу, яку ми вже віддаємо всім живим істотам.

Не повинно бути ні етики, ні релігії, які б заважали будь-кому виражати своє існування у світі. Ми повинні мати сміливість вийти за межі поточного етапу нашої еволюції, це буде єдиний спосіб зрозуміти, куди ми йдемо, і примиритися з майбутнім.

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Останні статті

Ринок Smart Lock: опубліковано звіт про дослідження ринку

Термін Smart Lock Market стосується галузі та екосистеми, що оточує виробництво, розповсюдження та використання…

27 березня 2024

Що таке шаблони проектування: навіщо їх використовувати, класифікація, плюси і мінуси

У розробці програмного забезпечення шаблони проектування є оптимальним вирішенням проблем, які зазвичай виникають під час проектування програмного забезпечення. Мені подобається…

26 березня 2024

Технологічний розвиток промислового маркування

Промислове маркування — це широкий термін, який охоплює кілька методів, які використовуються для створення стійких позначок на поверхні…

25 березня 2024

Приклади макросів Excel, написаних за допомогою VBA

Наступні прості приклади макросів Excel були написані за допомогою VBA Приблизний час читання: 3 хвилини Приклад…

25 березня 2024

Читайте Innovation своєю мовою

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Слідуйте за нами