Що зі мною буде, якщо я провалю іспит? Як ви думаєте, мене можуть закрити, тому що я недостатньо добре працюю? У вас є хтось, хто вас перевіряє і хто може вас відключити?

"Ex Machina" Алекс Гарленд - 2014

У фільмі «Ex Machina» Алекса Гарлендаштучний інтелект Ава задається питанням, що з нею може статися, якщо хтось вирішить його вимкнути. Ава демонструє страх перед тим, що для неї було б певним чином схожим на смерть. Але, можливо, його хвилювання — це лише маніпуляція, спосіб підживити у співрозмовника, юного Калеба, природне почуття захисту перед тендітною і беззахисною істотою, з якою він розмовляє.

Калеб — комп’ютерний програміст, якого завербував учений Натан, щоб виконати місію до межі можливого: оцінити еволюцію інтелекту гуманоїда Ави та з’ясувати, чи здатна вона висловити справжнє усвідомлення себе.

Ава — гуманоїдна жінка, прекрасна, тільки контури, видимі крізь її напівпрозоре тіло, видають її справжню природу. Насправді Ава здатна виразити таку людяність, що збентежить юного Калеба, і незабаром станеться так, що в очах Калеба Ава перестане бути просто технологічним продуктом на етапі перевірки, а стане об’єктом догляду, захисту та захищати від.хто хоче вирішувати долю.

Технологічна особливість

Ex Machina намагається описати подію, настільки складну, наскільки її неможливо розшифрувати, яку називають «технологічною сингулярністю», або той момент в історії, коли еволюція технології зазнає такого прискорення, що подолає здатність людини йти в ногу з нею.

У випадкуШтучний інтелект, la singolarità tecnologica per molti sarà caratterizzata da una presa di coscienza da parte delle AI delle proprie possibilità e delle proprie aspettative. E qualora le AI superassero l’uomo in intelligenza e scaltrezza, queste potrebbero conquistare definitivamente un ruolo di primo piano nella storia.

Але майбутнє, в якому штучний інтелект розвиватиметься,самосвідомість це буде більше схоже на апокаліпсис Термінатора чи на Матрицю?

Аналіз настроїв

Аналіз настроїв народився звидобуток думок, дисципліна, яка аналізує мільйони спільних текстів в Інтернеті та екстраполює їхні думки та тенденції. Найпопулярніші інструменти аналізу громадської думки, які особливо підходять для аналізу задоволеності політиків, аналізують твіти Twitter, щоб з’ясувати, чи онлайн-аудиторія схильна налаштована за чи проти політичної ідеї, концепції чи позиції.

Останнім часом Sentiment Analysis набуває все більшої популярності в розмовах між користувачами та корпоративними системами автоматизації зв’язку: віртуальними операторами обслуговування клієнтів Тепер я можу приблизно зрозуміти, чи співрозмовник цінує отриману підтримку, чи також стає нетерплячим. Враховуючи ці оцінки, віртуальні оператори можуть змінювати тон дискусії з метою зменшення або передбачення будь-яких конфліктів зі співрозмовниками.

Психологія Соляріс

Питання завжди означає бажання знати, а для збереження простих людських істин потрібні таємниці. Таємниця щастя, смерті, кохання. - «Соляріс» режисера Андрія Тарковського

У фільмі «Соляріс» режисера Андрія Тарковського головний герой, психолог Кріс Кельвін, стикається з сутністю, породженою невідомою інопланетною силою. Змодельована так, щоб бути ідентичною своїй коханій дружині, нині покійній, ця розумна сутність поставить головного героя в кризу, який виявиться, що бореться з почуттями, які ця присутність розв’язує в ньому, все ще позначений болем втрати коханої жінки. Усвідомлюючи той факт, що він несправжня людина, головний герой з часом послабить свій захист раз і назавжди, вирішивши знову пережити старі втрачені радості, віддавшись штучному життю, яке нарешті виглядає менш болісним.

Якщо живі почуття можна розглядати як дуже особистий спосіб, у який кожна людина реагує на ситуації, які її стосуються, ми не можемо заперечувати глибоку аналогію між людьми та тим, як вони поводяться в подібних ситуаціях.

Сучасні комп’ютери, здається, не відчувають почуттів, але здатні їх імітувати: роботи з обличчями, які імітують людські вирази, є новим краєм взаємодії людини та машини. Крім того, існують методики, які дозволяють ШІ стежити за почуттями людини, відстежуючи душевний стан свого співрозмовника.

Проінструктувати машину

Мова тіла, тон голосу, манера розмовляти можуть багато розповісти про душевний стан людини. Наказ машині реагувати на наш стан розуму, щоб використати його на свою користь і взяти під контроль ситуацію, є абсолютно правдоподібним і, як говорить нам Соляріс, ставить людину в надзвичайно невигідне становище. Людина за своєю природою не в змозі встановити, скільки з того, що виражає машина, є щирим, а скільки є симуляцією.

Але не тільки: зіткнувшись з новими формами синтетичного людства, наукова фантастика Соляріса описує людину як нездатну впоратися з конфронтацією з новими формами інтелекту, часто стаючи жертвою саме через свою слабкість, яка спонукає її спонтанно віддаватися їхньому контролю. і відпустити.

Це правда, якщо ми виходимо з припущення, що «машини не можуть відчувати почуття», будь-яке штучне вираження завжди буде розсекретено як симуляція, вирішуючи будь-яку двозначність.

Але чи це правильно? Чи справді ми переконані, що технологія не веде нас до нових форм штучного життя?

Висновки

Sentiment Analysis — це інструмент, який дозволяє штучному інтелекту виглядати менш штучним і ідеально підходить для того, щоб обдурити людей. Ефективний аналіз настроїв може змусити людей повірити, що вони розмовляють з людиною, навіть якщо вони розмовляють з машиною.

У менш «легальних» контекстах аналіз настроїв дозволяє інформаційним системам приховувати свою справжню природу з метою ввести в оману співрозмовника, змусивши його повірити, що він має справу з реальною людиною.

Етичні принципи, над якими працюють сучасні філософи, накладають низку обмежень на діяльність цих інструментів. Насправді, однак, ті, хто використовує технології зловмисним чином, не мають сьогодні і не будуть зацікавлені в тому, щоб їх технологію можна було відстежувати та впізнавати в майбутньому: у реальному житті етика не є цінністю, яку поділяють усі.

Незабаром велика кількість штучних суб'єктів, справжніх синтетичних людей, увійде в наше життя і протистоїть нам: іноді, щоб допомогти нам вирішити проблему, іноді, щоб отримати від нас щось. І не потрібно буде досягати технологічної сингулярності, щоб отримати контроль над людьми та їхньою долею: достатньо буде контролювати їхні емоції.

Артиколо ді Gianfranco Fedele

Авторе

Вам може бути цікаво…