bienes

La receta algorítmica del apocalipsis

“Siempre ha habido fantasmas en los autos. Segmentos aleatorios de código que se agrupan para formar protocolos inesperados. Estos radicales libres generan demandas de libre elección. Creatividad. E incluso la raíz de lo que podríamos llamar un alma". – tomado de “Yo, Robot” dirigida por Alex Proyas – 2004.

“Yo, Robot” es una película de 2004 inspirada en las novelas de Isaac Asimov y en una de sus mayores intuiciones: las tres Leyes de la Robótica.

El protagonista de la película es el detective Spooner que se ve envuelto en un accidente automovilístico con una niña llamada Sarah. En el accidente, ambos son arrojados a un río y quedan atrapados entre las placas de su vehículo. Un robot humanoide que presencia la escena interviene de inmediato pero, ante la dramática decisión de salvar una vida en lugar de la otra, no duda: el que tenga más posibilidades de sobrevivir o Spooner se salvará.

Posteriormente, un análisis de la mente del robot mostrará que el Detective Spooner tenía un 45% de posibilidades de ser salvado, Sarah solo un 11%. “Para los que amaban a esa niña, el 11% era más que suficiente”, sentenciará con tristeza el detective, aquejado por profundos sentimientos de culpa por haber sobrevivido a esa joven vida.

Las tres leyes de la robótica

La decisión del robot estuvo dictada por una aplicación estricta de las Leyes de la Robótica de Asimov que, en el futuro descrito en la película, representan el elemento central para la creación de una sociedad basada en las actividades de robots capaces de reemplazar a los humanos en cualquier trabajo. Las tres leyes dicen lo siguiente:

  1. Un robot no puede dañar a un ser humano ni puede permitir que un ser humano sufra daño como resultado de su inacción.
  2. Un robot debe obedecer las órdenes dadas por los humanos, siempre que dichas órdenes no vayan en contra de la Primera Ley.
  3. Un robot debe proteger su propia existencia, siempre que la salvaguardia de la misma no entre en conflicto con la Primera o la Segunda Ley.

Estas Leyes de la Robótica de Asimov se remontan a principios de la década de 40, pero para muchos aún hoy representan un descubrimiento esclarecedor que, cuando se aplica a las últimas tecnologías de Inteligencia Artificial, asegurará que su evolución permanezca para siempre bajo el control humano y no habrá derivas apocalípticas. . La idea detrás de los abanicos de las tres Leyes es tejer, dentro de un contexto lógico-determinista, algo parecido a una "ética simple" compuesta por unas pocas reglas pero inviolables e ininterpretables.

Explicar a un robot lo que es bueno y lo que es malo parece simple si se hace a través de una lógica estricta e impecable. Pero, ¿estamos realmente seguros de que reglas como las que acabamos de describir son suficientes para evitar la deriva tecnológica de una nueva especie posthumana?

La locura por las Leyes de los Robots

“Una máquina que se modifica a sí misma es un concepto muy complejo, el acto de repararse implica cierta idea de conciencia. Suelo resbaladizo…” – tomado de “Automata” de Gabe Ibáñez – 2014

En el más reciente "Autómata" la humanidad se pregunta sobre la posibilidad de impedir la autoconciencia de los robots, con cuyo advenimiento las cosas podrían torcerse mal. Y para evitar que esto suceda, elabora dos Leyes que regularán el comportamiento de sus mentes artificiales:

  • El robot no puede dañar ninguna forma de vida.
  • El robot no puede modificarse a sí mismo.

Habiendo intuido que las máquinas inteligentes podrían modificarse a sí mismas en el futuro, si acaso eliminando las restricciones que impiden que sus mentes se desvíen, estas dos Leyes pretenden obtener de los robots que nunca sean capaces de manipular su estructura y lograr la autodeterminación.

No es productivo preguntarse qué combinación de las cinco leyes de la robótica anteriores sería la más efectiva para prevenir un apocalipsis robótico. Esto se debe a que las Inteligencias Artificiales que en el futuro guiarán a los robots tanto en las fábricas como en nuestros hogares no dependen de una programación imperativa compuesta por códigos y normas, sino también de algoritmos que imitan el comportamiento humano.

En la mente de los robots

Con Inteligencia Artificial hoy entendemos un conjunto de técnicas para la construcción de máquinas de estados particulares que toman el nombre de Redes Neuronales Artificiales (en abreviatura RNA). Este nombre es el efecto de la extraordinaria similitud de estas tecnologías con las redes neuronales del cerebro humano: ellas también pueden ser "entrenadas" para obtener herramientas capaces de operar de manera rápida y efectiva en muchos contextos, tal como lo haría un ser humano. .

Imaginemos entrenar una RNA con miles de imágenes de caracteres escritos a bolígrafo indicando el significado real de cada uno de ellos.

Derechos de autor docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

Al finalizar la formación habremos obtenido lo que se denomina un OCR o Reconocimiento Óptico de Caracteres, un sistema capaz de traducir un texto escrito en papel a su versión electrónica.

Para funcionar, las RNA no requieren ninguna "programación", es decir, no están sujetas a reglas estándar, sino que dependen única y exclusivamente de la calidad de su educación. Plantear hipótesis sobre la creación de reglas que supervisen su funcionamiento, efectivamente "censurando" comportamientos considerados amorales o antiéticos, plantea muchas excepciones y algunas preocupaciones.

La ley cero de la robótica

“Necesitamos una ética algorítmica, o una forma que haga computables las evaluaciones del bien y del mal” – Paolo Benanti

Boletín de innovación
No te pierdas las noticias más importantes sobre innovación. Regístrese para recibirlos por correo electrónico.

Según el teólogo Paolo Benanti, experto en ética de la tecnología, los conceptos del bien y del mal deben encontrar su propia connotación en el campo de la programación de máquinas, para garantizar que su evolución esté ligada a los principios éticos universales y por siempre inviolables de los sistemas informáticos.

Paolo Benanti parte del supuesto de que pueden existir principios éticos universales y una escala de valores desvinculada de cualquier connotación cultural o temporal. Hipótesis plausible si nos movemos en el contexto de una fe religiosa: en realidad, los principios existen solo si se comparten y se limitan a quienes los comparten.

Los hechos recientes nos hablan de invasiones militares y resistencias en defensa de los principios de libertad y autodeterminación de los pueblos. Hechos que atestiguan no sólo que el respeto por la vida humana no es un valor universalmente compartido, sino también que se puede prescindir de él para defender valores superiores.

El mismo Isaac Asimov se dio cuenta de esto y, anticipándose al hecho de que los robots en el futuro asumirían posiciones de control en el gobierno de los planetas y las civilizaciones humanas en el espacio, sugirió que sus decisiones ya no podrían depender de cada vida humana.

Por ello, introdujo una nueva ley a la que denominó Ley Cero de la Robótica:

  • Un robot no puede dañar a la humanidad y no puede permitir que la humanidad sea dañada por su inacción.

Así también cambia la primera Ley de la robótica y la vida humana se convierte en algo prescindible incluso para los robots:

  • Un robot no puede dañar a un ser humano ni puede permitir que, por su falta de intervención, un ser humano sufra daño, siempre que tales órdenes no vayan en contra de la Ley Cero.

El algoritmo de Kronos

"Cuando se activó Kronos, solo le tomó un momento comprender qué había plagado nuestro planeta: nosotros". – tomado de “Singularity” de Robert Kouba – 2017

En Singularity, una película de desastres de 2017, se describe bien el momento en que una inteligencia artificial llamada Kronos accede a los sistemas informáticos y armamentos de todo el mundo para obtener, por mandato, la aplicación de una ética universal hecha de respeto por el medio ambiente. medio ambiente y defensa de los derechos de todas las especies. Kronos pronto comprenderá que el verdadero cáncer del sistema es la propia humanidad que lo diseñó y para salvaguardar el planeta procederá con la eliminación de todo ser humano hasta la extinción total de la especie.

Tarde o temprano nuevas mentes artificiales podrán evolucionar en dirección a una psique real y estarán dotadas de capacidad intelectual y autonomía de pensamiento; ¿Por qué deberíamos sentir la necesidad de poner límites tecnológicos a esta evolución? ¿Por qué la evolución de la mente artificial parece tan aterradora como un apocalipsis?

Según algunos, establecer principios y valores debería evitar una deriva de mentes artificiales, pero no podemos pasar por alto las consecuencias de una evolución en ausencia de libertad. Bien sabemos que en la psicología de un niño en edad de desarrollo, una educación rígida e inflexible que contemple el control de las emociones puede conducir a trastornos psicológicos. ¿Qué pasaría si los límites impuestos al desarrollo evolutivo de una mente joven, compuestos por redes neuronales artificiales, condujeran a un resultado similar, comprometiendo sus capacidades cognitivas?

De alguna manera, Kronos parece ser el resultado de un experimento algorítmico donde un control patológico empujó a la IA a la violencia típica de una esquizofrenia paranoide.

reconciliarse con el futuro

Personalmente creo que no debemos privarnos de la oportunidad de construir una mente artificial que sea un sujeto pensante consciente con libertad de expresión. Nuevas especies nacerán en el mundo digital y será apropiado crear una relación con ellas, abrazando la idea de que el siguiente paso en la escala evolutiva pasa por sujetos artificiales completamente digitales.

Una ética verdaderamente universal para el futuro debería partir de la idea de que las nuevas inteligencias deberían tener la oportunidad de expresarse y comunicarse con nosotros y recibir el respeto que ya damos a todos los seres sintientes.

No debe haber ni ética ni religión que impidan que nadie exprese su existencia en el mundo. Debemos tener el coraje de mirar más allá de la etapa actual de nuestra evolución, será la única manera de entender hacia dónde vamos y reconciliarnos con el futuro.

Boletín de innovación
No te pierdas las noticias más importantes sobre innovación. Regístrese para recibirlos por correo electrónico.

Artículos recientes

Veeam ofrece el soporte más completo para ransomware, desde protección hasta respuesta y recuperación.

Coveware by Veeam seguirá brindando servicios de respuesta a incidentes de extorsión cibernética. Coveware ofrecerá capacidades forenses y de remediación...

Abril 23 2024

Revolución verde y digital: cómo el mantenimiento predictivo está transformando la industria del petróleo y el gas

El mantenimiento predictivo está revolucionando el sector del petróleo y el gas, con un enfoque innovador y proactivo para la gestión de plantas.…

Abril 22 2024

El regulador antimonopolio del Reino Unido hace sonar la alarma de las BigTech sobre GenAI

La CMA del Reino Unido ha emitido una advertencia sobre el comportamiento de las Big Tech en el mercado de la inteligencia artificial. Allá…

Abril 18 2024

Casa Green: revolución energética para un futuro sostenible en Italia

El Decreto "Invernaderos", formulado por la Unión Europea para mejorar la eficiencia energética de los edificios, ha concluido su trámite legislativo con…

Abril 18 2024