Artigos

A receita algorítmica para o apocalipse

"Sempre houbo pantasmas nos coches. Segmentos aleatorios de código que se agrupan para formar protocolos inesperados. Estes radicais libres xeran demandas de libre elección. Creatividade. E ata a raíz do que poderiamos chamar unha alma". – tirada de “I, Robot” dirixida por Alex Proyas – 2004.

“I, Robot” é un filme de 2004 inspirado nas novelas de Isaac Asimov e nunha das súas maiores intuicións: as tres leis da robótica.

O protagonista da película é o detective Spooner que está involucrado nun accidente de tráfico cunha nena chamada Sarah. No accidente, ambos son arroxados a un río e quedan atrapados entre as placas do seu vehículo. Un robot humanoide que presencia a escena intervén inmediatamente pero, ante a dramática decisión de salvar unha vida antes que a outra, non dubida: salvarase o que teña máis posibilidades de sobrevivir ou Spooner.

Posteriormente, unha análise da mente do robot mostrará que o detective Spooner tiña un 45% de posibilidades de ser salvado, Sarah só un 11%. "Para os que amaban a esa nena, un 11% era máis que suficiente", sentenciará tristemente o detective, aflixido por profundos sentimentos de culpa por ter sobrevivido a aquela vida nova.

As tres leis da robótica

A decisión do robot foi ditada por unha aplicación estrita das Leis da Robótica de Asimov que, no futuro descrito na película, representan o elemento central para a creación dunha sociedade baseada nas actividades de robots capaces de substituír aos humanos en calquera traballo. As tres leis dicen o seguinte:

  1. Un robot non pode facer dano a un ser humano nin pode permitir que un ser humano sufra danos como consecuencia da súa inacción.
  2. Un robot debe obedecer as ordes dadas polos humanos, sempre que tales ordes non vaian en contra da Primeira Lei.
  3. Un robot debe protexer a súa propia existencia, sempre que a salvagarda do mesmo non entre en conflito coa Primeira ou Segunda Lei.

Estas Leis da Robótica de Asimov remóntanse a principios da década de 40, aínda que para moitos aínda hoxe representan un descubrimento ilustrado que, aplicado ás últimas tecnoloxías de Intelixencia Artificial, garantirá que a súa evolución permaneza para sempre baixo control humano e que non haxa derivas apocalípticas. . A idea detrás dos fans das tres Leis é cablear, dentro dun contexto lóxico-determinista, algo que se asemella a unha "ética sinxela" composta por poucas regras pero inviolable e ininterpretable.

Explicarlle a un robot o que é bo e o que é malo parece sinxelo se se fai a través dunha lóxica rigorosa e impecable. Pero estamos realmente seguros de que regras como as que acabamos de describir son suficientes para evitar a deriva tecnolóxica dunha nova especie poshumana?

A mania polas leis dos robots

“Unha máquina que se modifica é un concepto moi complexo, o acto de repararse implica algunha idea de conciencia. Slippery ground…” – tomado de “Automata” de Gabe Ibáñez – 2014

No máis recente "Autómatas" a humanidade pregúntase sobre a posibilidade de evitar a autoconciencia dos robots, coa chegada de que as cousas poderían dar un mal xiro. E para evitar que isto suceda, elabora dúas Leis que regularán o comportamento das súas mentes artificiais:

  • O robot non pode danar ningunha forma de vida.
  • O robot non pode modificarse por si mesmo.

Tendo intuído que as máquinas intelixentes poderían modificarse no futuro, se cabe eliminando as limitacións que impiden que as súas mentes se desplacen, estas dúas Leis pretenden conseguir dos robots que nunca sexan capaces de manipular a súa estrutura e lograr a autodeterminación.

Non é produtivo descifrar que combinación das cinco leis da robótica anteriores sería máis eficaz para evitar a apocalipse do robot. Isto débese a que as Intelixencias Artificiais que no futuro guiarán aos robots tanto nas fábricas como nas nosas casas non dependen dunha programación imperativa formada por códigos e normativas, senón tamén de algoritmos que imiten o comportamento humano.

Na mente dos robots

Con Intelixencia Artificial entendemos hoxe un conxunto de técnicas para a construción de determinadas máquinas de estado que levan o nome de Redes Neuronais Artificiais (en definitiva ARN). Este nome é o efecto da extraordinaria semellanza destas tecnoloxías coas redes neuronais do cerebro humano: elas tamén poden ser "adestradas" para obter ferramentas capaces de funcionar de xeito rápido e eficaz en moitos contextos, como faría un ser humano. .

Imaxinemos adestrando un ANN con miles de imaxes de personaxes escritas a pluma indicando o significado real de cada un deles.

Copyright docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

Ao remate da formación teremos conseguido o que se denomina OCR ou Recoñecemento óptico de caracteres, un sistema capaz de traducir un texto escrito en papel á súa versión electrónica.

Para funcionar, as ANN non precisan de "programación" ningunha, é dicir, non están suxeitas a normas estándar, senón que dependen única e exclusivamente da calidade da súa educación. A hipótese da creación de regras que supervisen o seu funcionamento, "censurando" efectivamente comportamentos considerados amorais ou antiéticos, suscita moitas excepcións e algunhas preocupacións.

A Lei Cero da Robótica

"Necesitamos un algoritmo-ética, ou unha forma que faga computables as avaliacións do ben e do mal" - Paolo Benanti

Boletín de innovación
Non te perdas as novidades máis importantes sobre innovación. Rexístrese para recibilos por correo electrónico.

Segundo o teólogo Paolo Benanti, experto en ética tecnolóxica, os conceptos de ben e mal deberían atopar a súa propia connotación no campo da programación de máquinas, para garantir que a súa evolución estea ligada a principios éticos universais e para sempre inviolables dos sistemas informáticos.

Paolo Benanti parte da suposición de que pode haber principios éticos universais e unha escala de valores desvinculada de calquera connotación cultural ou temporal. Hipótese plausible se nos movemos no contexto dunha fe relixiosa: en realidade, os principios só existen se son compartidos e limitados a quen os comparte.

Os últimos acontecementos fálannos de invasións militares e resistencias en defensa dos principios de liberdade e autodeterminación dos pobos. Acontecementos que testemuñan non só que o respecto á vida humana non é un valor universalmente compartido, senón que tamén se pode renunciar a el para defender valores superiores.

O propio Isaac Asimov decatouse diso e, en previsión de que os robots no futuro asumirían posicións de control no goberno dos planetas e das civilizacións humanas no espazo, suxeriu que as súas decisións xa non podían depender de cada vida humana.

Por este motivo, introduciu unha nova lei que chamou a Lei Cero da Robótica:

  • Un robot non pode danar á humanidade e non pode permitir que a humanidade se vexa prexudicada pola súa inacción.

Así tamén a primeira Lei da robótica cambia e a vida humana convértese en algo prescindible incluso para os robots:

  • Un robot non pode facer dano a un ser humano nin pode permitir que, pola súa falta de intervención, un ser humano sufra danos, sempre que tales ordes non vaian en contra da Lei Cero.

O algoritmo de Kronos

"Cando se activou Kronos, só tardou un momento en comprender o que afectara o noso planeta: nós". – tomado de “Singularity” de Robert Kouba – 2017

En Singularity, película de desastres de 2017, descríbese ben o momento no que unha intelixencia artificial chamada Kronos recibe acceso a sistemas informáticos e armamentos de todo o mundo para conseguir, por orde, a aplicación dunha ética universal feita no respecto ao medio ambiente e defensa dos dereitos de todas as especies. Kronos pronto entenderá que o verdadeiro cancro do sistema é a propia humanidade que o deseñou e para salvagardar o planeta procederá á eliminación de todo ser humano ata a extinción total da especie.

Tarde ou cedo as novas mentes artificiais poderán evolucionar na dirección dunha psique real e estarán dotadas de capacidade intelectual e autonomía de pensamento; por que habería que sentir a necesidade de poñer límites tecnolóxicos a esta evolución? Por que a evolución da mente artificial parece tan aterradora como unha apocalipse?

Segundo algúns, establecer principios e valores debería evitar unha deriva das mentes artificiais, pero non podemos pasar por alto as consecuencias dunha evolución en ausencia de liberdade. Sabemos ben que na psicoloxía dun neno en idade evolutiva, unha educación ríxida e inflexible que contempla o control das emocións pode levar a trastornos psicolóxicos. E se algún límite imposto ao desenvolvemento evolutivo dunha mente nova, formada por redes neuronais artificiais, leva a un resultado semellante, comprometendo as súas capacidades cognitivas?

En certo modo, Kronos parece ser o resultado dun experimento algorítmico onde un control patolóxico empuxou a IA á violencia típica dunha esquizofrenia paranoide.

Reconciliarse co futuro

Persoalmente, creo que non debemos privarnos da oportunidade de construír unha mente artificial que sexa un suxeito de pensamento consciente con liberdade de expresión. Novas especies nacerán no mundo dixital e será conveniente crear unha relación con elas, abrazando a idea de que o seguinte chanzo na escaleira evolutiva pasa por suxeitos artificiais completamente dixitais.

Unha ética verdadeiramente universal para o futuro debería partir da idea de que as novas intelixencias deberían ter a oportunidade de expresarse e comunicarse connosco e recibir o respecto que xa lle damos a todos os seres sensibles.

Non debería haber nin ética nin relixión que impida que ninguén exprese a súa existencia no mundo. Debemos ter a valentía de mirar máis aló da etapa actual da nosa evolución, será o único xeito de entender cara a onde imos e reconciliarnos co futuro.

Boletín de innovación
Non te perdas as novidades máis importantes sobre innovación. Rexístrese para recibilos por correo electrónico.

Artigos recentes

Veeam ofrece o soporte máis completo para ransomware, desde a protección ata a resposta e a recuperación

Coveware by Veeam continuará ofrecendo servizos de resposta a incidentes de extorsión cibernética. Coveware ofrecerá capacidades forenses e de remediación...

Abril 23 2024

Revolución verde e dixital: como o mantemento preditivo está a transformar a industria do petróleo e do gas

O mantemento preditivo está a revolucionar o sector do petróleo e do gas, cun enfoque innovador e proactivo para a xestión das plantas...

Abril 22 2024

O regulador antimonopolio do Reino Unido alerta a BigTech sobre GenAI

A CMA do Reino Unido emitiu unha advertencia sobre o comportamento de Big Tech no mercado da intelixencia artificial. Alí…

Abril 18 2024

Casa Green: revolución enerxética para un futuro sostible en Italia

O Decreto "Case Green", formulado pola Unión Europea para mellorar a eficiencia enerxética dos edificios, concluíu o seu proceso lexislativo co...

Abril 18 2024