товары

Алгоритмический рецепт апокалипсиса

«В машинах всегда были призраки. Случайные сегменты кода, которые объединяются в неожиданные протоколы. Эти свободные радикалы порождают требования свободного выбора. Творческий подход. И даже корень того, что мы могли бы назвать душой». — взято из «Я, робот» режиссера Алекса Пройаса — 2004.

«Я, робот» — фильм 2004 года, вдохновленный романами Айзека Азимова и одной из его величайших интуиций: тремя законами робототехники.

Главный герой фильма — детектив Спунер, попавший в автомобильную аварию вместе с маленькой девочкой по имени Сара. В результате аварии оба были брошены в реку и застряли между пластинами своего автомобиля. Робот-гуманоид, ставший свидетелем этой сцены, немедленно вмешивается, но, столкнувшись с драматическим решением спасти одну жизнь, а не другую, не колеблясь: тот, у кого больше шансов выжить, или Спунер, будет спасен.

Впоследствии анализ разума робота покажет, что у детектива Спунера был шанс спастись 45%, у Сары только 11%. «Для тех, кто любил эту маленькую девочку, 11% было более чем достаточно», — с грустью постановит сыщик, охваченный глубоким чувством вины за то, что пережил ту юную жизнь.

Три закона робототехники

Решение робота было продиктовано строгим применением азимовских законов робототехники, которые в будущем, описанном в фильме, представляют собой центральный элемент для создания общества, основанного на деятельности роботов, способных заменить человека на любой работе. Три закона звучат следующим образом:

  1. Робот не может причинить вред человеку и не может позволить человеку пострадать в результате своего бездействия.
  2. Робот должен подчиняться приказам, отдаваемым людьми, если такие приказы не противоречат Первому закону.
  3. Робот должен защищать свое существование при условии, что его защита не противоречит Первому или Второму закону.

Эти законы робототехники Азимова восходят к началу 40-х годов, но для многих и сегодня они представляют собой просвещенное открытие, которое применительно к новейшим технологиям искусственного интеллекта гарантирует, что их эволюция навсегда останется под человеческим контролем, и не будет никаких апокалиптических дрейфов. . Идея сторонников трех Законов состоит в том, чтобы связать в логико-детерминистическом контексте что-то вроде «простой этики», состоящей из нескольких правил, но нерушимых и не интерпретируемых.

Объяснение роботу, что хорошо, а что плохо, кажется простым, если делать это с помощью строгой и безупречной логики. Но действительно ли мы уверены, что правил, подобных только что описанным, достаточно, чтобы избежать технологического дрейфа нового постчеловеческого вида?

Увлечение законами роботов

«Машина, которая модифицирует себя, — это очень сложное понятие, акт самовосстановления подразумевает некоторое представление о сознании. Скользкая земля…» — взято из «Автоматов» Гейба Ибаньеса — 2014 г.

В самых последних «Автоматах» человечество задается вопросом о возможности предотвращения самоосознания роботов, с появлением которых дело может принять плохой оборот. И чтобы этого не произошло, оно составляет два Закона, которые будут регулировать поведение их искусственных разумов:

  • Робот не может причинить вред ни одной форме жизни.
  • Робот не может модифицировать себя.

Интуитивно догадываясь, что разумные машины смогут в будущем видоизменяться, сняв ограничения, мешающие их разуму дрейфовать, эти два Закона направлены на то, чтобы добиться от роботов того, что они никогда не смогут манипулировать своей структурой и достичь самоопределения.

Непродуктивно ломать голову над тем, какая комбинация из пяти приведенных выше Законов робототехники будет наиболее эффективной для предотвращения апокалипсиса роботов. Это связано с тем, что искусственный интеллект, который в будущем будет управлять роботами на фабриках, а также в наших домах, зависит не от императивного программирования, состоящего из кодов и правил, а также от алгоритмов, имитирующих человеческое поведение.

В сознании роботов

Сегодня под искусственным интеллектом мы подразумеваем набор методов для создания определенных конечных автоматов, которые называются искусственными нейронными сетями (сокращенно РНК). Это название является результатом необычайного сходства этих технологий с нейронными сетями человеческого мозга: их тоже можно «обучить», чтобы получить инструменты, способные работать быстро и эффективно во многих контекстах, как это сделал бы человек. .

Давайте представим обучение ИНС с тысячами изображений символов, написанных ручкой, с указанием реального значения каждого из них.

Авторское право docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

В конце обучения мы получим то, что называется OCR или оптическим распознаванием символов, системой, способной переводить текст, написанный на бумаге, в его электронную версию.

Для того, чтобы функционировать, ИНС не требуют никакого «программирования», другими словами, они не подчиняются стандартным правилам, а зависят только и исключительно от качества их образования. Гипотеза о создании правил, которые контролируют их функционирование, эффективно «цензурируя» поведение, считающееся аморальным или антиэтичным, вызывает множество исключений и некоторые опасения.

Нулевой закон робототехники

«Нам нужна этика-алгоритм или способ, позволяющий вычислить оценки добра и зла» — Паоло Бенанти.

Инновационный бюллетень
Не пропустите самые важные новости об инновациях. Зарегистрируйтесь, чтобы получать их по электронной почте.

По мнению теолога Паоло Бенанти, эксперта по технической этике, понятия добра и зла должны найти свое собственное значение в области машинного программирования, чтобы их эволюция была связана с универсальными и навсегда нерушимыми этическими принципами компьютерных систем.

Паоло Бенанти исходит из предположения, что могут существовать универсальные этические принципы и шкала ценностей, не зависящие от какой-либо культурной или временной коннотации. Правдоподобная гипотеза, если мы движемся в контексте религиозной веры: в действительности принципы существуют только в том случае, если они разделяются и ограничиваются теми, кто их разделяет.

Недавние события говорят нам о военных вторжениях и сопротивлении в защиту принципов свободы и самоопределения народов. События, свидетельствующие не только о том, что уважение к человеческой жизни не является общепризнанной ценностью, но и о том, что от него можно отказаться ради защиты более высоких ценностей.

Сам Айзек Азимов осознавал это и, предвидя тот факт, что роботы в будущем займут руководящие посты в управлении планетами и человеческими цивилизациями в космосе, предположил, что их решения больше не могут зависеть от каждой отдельной человеческой жизни.

По этой причине он ввел новый закон, который назвал нулевым законом робототехники:

  • Робот не может причинить вред человечеству и не может допустить, чтобы человечество пострадало своим бездействием.

При этом меняется и первый закон робототехники, и человеческая жизнь становится чем-то расходным даже для роботов:

  • Робот не может причинить вред человеку и не может допустить, чтобы из-за его отсутствия вмешательства человеку был причинен вред, если такие приказы не противоречат Закону Нуля.

Алгоритм Кроноса

«Когда Кронос был активирован, ему потребовалось всего мгновение, чтобы понять, что поразило нашу планету: мы». — взято из «Сингулярности» Роберта Кубы — 2017 г.

В фильме-катастрофе 2017 года «Сингулярность» хорошо описан момент, когда искусственному интеллекту по имени Кронос предоставляется доступ к компьютерным системам и оружию по всему миру, чтобы по команде добиться применения универсальной этики, основанной на уважении к окружающей среды и защиты прав всех видов. Вскоре Кронос поймет, что настоящим раком в системе является само человечество, которое ее спроектировало, и для защиты планеты он приступит к уничтожению каждого человека до полного исчезновения вида.

Рано или поздно новые искусственные разумы смогут развиться в направлении реальной психики и будут наделены интеллектуальной способностью и автономией мышления; почему мы должны чувствовать необходимость накладывать технологические ограничения на эту эволюцию? Почему эволюция искусственного разума кажется такой же пугающей, как апокалипсис?

По мнению некоторых, установление принципов и ценностей должно предотвратить дрейф искусственных умов, но мы не можем игнорировать последствия эволюции в отсутствие свободы. Мы хорошо знаем, что в психологии ребенка в возрасте развития жесткое и негибкое воспитание, предполагающее контроль над эмоциями, может привести к психическим нарушениям. Что, если любые ограничения, наложенные на эволюционное развитие юного разума, состоящего из искусственных нейронных сетей, приведут к аналогичному результату, поставив под угрозу его когнитивные способности?

В некотором смысле Кронос кажется результатом алгоритмического эксперимента, где патологический контроль подтолкнул ИИ к типичному для параноидальной шизофрении насилию.

Примириться с будущим

Я лично считаю, что мы не должны лишать себя возможности построить искусственный разум, который является сознательным мыслящим субъектом со свободой выражения. В цифровом мире будут рождаться новые виды и с ними будет уместно строить отношения, приняв мысль, что следующая ступень эволюционной лестницы проходит через полностью цифровых искусственных субъектов.

Подлинно универсальная этика будущего должна начинаться с идеи о том, что новый разум должен иметь возможность выражать себя и общаться с нами, а также получать уважение, которое мы уже оказываем всем живым существам.

Не должно быть ни этики, ни религии, чтобы помешать кому-либо выразить свое существование в мире. Мы должны иметь мужество смотреть дальше текущего этапа нашей эволюции, это будет единственный способ понять, куда мы идем, и примириться с будущим.

Инновационный бюллетень
Не пропустите самые важные новости об инновациях. Зарегистрируйтесь, чтобы получать их по электронной почте.

АРТИКОЛИ recenti

Зеленая и цифровая революция: как прогнозируемое обслуживание меняет нефтегазовую отрасль

Прогнозируемое техническое обслуживание производит революцию в нефтегазовом секторе благодаря инновационному и упреждающему подходу к управлению предприятием…

Апрель 22 2024

Антимонопольный регулятор Великобритании поднял тревогу BigTech по поводу GenAI

Британское CMA выступило с предупреждением о поведении крупных технологических компаний на рынке искусственного интеллекта. Там…

Апрель 18 2024

Casa Green: энергетическая революция для устойчивого будущего в Италии

Указ «Case Green», сформулированный Европейским Союзом для повышения энергоэффективности зданий, завершил законодательный процесс…

Апрель 18 2024

Электронная торговля в Италии выросла на 27% согласно новому отчету Casaleggio Associati.

Представлен годовой отчет Casaleggio Associati об электронной коммерции в Италии. Доклад под названием «ИИ-коммерция: границы электронной коммерции с искусственным интеллектом».…

Апрель 17 2024

Читайте «Инновации» на вашем языке

Инновационный бюллетень
Не пропустите самые важные новости об инновациях. Зарегистрируйтесь, чтобы получать их по электронной почте.

Следуйте за нами