Inteligencia artificial

¡La identificación no es un principio ético sino un truco sucio!

Desde que comencé a trabajar en el proyecto Laila, un ecosistema de Inteligencia Artificial para apoyar un agente conversacional dedicado a las empresas, aprendí que la IA ofrece inmensas oportunidades de desarrollo e innovación, pero la mayoría de empresas que dicen utilizarla lamentablemente están poniendo en práctica una mera estrategia de marketing.

El vídeo viral de Google Duplex

Tan pronto como se presentó al mundo, Google Duplex inmediatamente atrajo la atención de la web. Presentado durante el Google IO 2018, esta tecnología basada en Inteligencia Artificial consigue suplantar a un ser humano con la intención, en nombre de su usuario, de reservar una sesión en la peluquería y una mesa en el restaurante, manteniendo, con ambos negocios, una conversación telefónica bastante fluida.

El video de demostración parece real incluso si para muchos es falso. Ciertamente, las conversaciones, que parecen bastante complejas, si no se han ensamblado ingeniosamente son sin duda el resultado de muchos intentos y un poco de suerte: en dos llamadas telefónicas exitosas, no sabemos cuántos otros Google Duplex pueden haber fallado miserablemente.

El efecto de la presentación me recuerda a la gran charla que dio Amazon cuando en 2013, con un vídeo en Youtube, presentó al mundo Amazon Prime Air, el innovador sistema de entrega basado en drones; este revolucionario sistema, después de muchos años, todavía está en fase experimental y los simples mortales nos hemos hecho a la idea de que "todas" estas ciencia ficción encontradas son al final solo una nueva forma de hacer videos virales.

Lo que me llamó la atención de Google Duplex es el pequeño teatro montado en torno a una supuesta cuestión ética ya planteada unas horas después de la publicación del vídeo y relanzado inmediatamente por los periódicos online más importantes. En resumen, según algunos: Las IA que simulan el comportamiento humano presentan un problema ético si disfrazan su naturaleza y fingen ser humanos.

Instantánea de la respuesta de Google: "Duplex será inmediatamente identificable para su interlocutor.

Demos un paso atrás

Google siempre nos ha acostumbrado a usar sus tecnologías sin revelar nunca cómo se fabrican y cómo funcionan. Su motor de búsqueda es representativo de esta filosofía: el algoritmo subyacente es un secreto industrial de valor inestimable, nadie se considera capaz de revelar sus secretos. Y precisamente por su carácter insondable, nos hemos acostumbrado a no cuestionar su eficacia, sea real o supuesta. Solo lo usamos.

No importa si al pasar de una página a otra de una búsqueda cambia el número de resultados; o si surge algo de nuestra investigación que nunca pensamos que asociaríamos con nuestra intención.

Sin embargo, estos pequeños fallos aparecen a nuestros ojos como meras imperfecciones, pequeños fallos en un sistema tan sofisticado que a veces dudamos de que Google tuviera razón y nosotros nos equivocáramos.

Tomemos como ejemplo Google Search Suggest, el sistema de autocompletado con el que Google sugiere qué buscar mientras estamos escribiendo. Este sistema, que para mí plantea muchos más problemas éticos que Google Duplex, parece útil e inteligente, pero detrás de su eficacia esconde un truco de auténticos hackers: el buscador de Google funciona con "keywords", grupos de palabras que representan la intención de búsqueda. de sus usuarios. Cada palabra clave nueva es la expresión de una necesidad y requiere un procesamiento específico para que Google pueda responder adecuadamente. Google tiene un poder de cómputo inmensamente grande, sin embargo, hoy en día es poco práctico imaginar la organización de los resultados de su motor de acuerdo con “cualquier combinación posible de palabras”.

Boletín de innovación
No te pierdas las noticias más importantes sobre innovación. Regístrese para recibirlos por correo electrónico.
Google Search Suggest plantea muchas más cuestiones éticas que Google Duplex.

Por esta razón, Google presta atención solo a las palabras clave que se han expresado las suficientes veces como para ser una necesidad generalizada. Para todo lo demás, improvisar: palabras parecidas, similitudes con otras palabras clave, identificación de textos aleatorios son los sistemas aplicados para hacer frente a esas situaciones que de otro modo se presentan sin salida.

El número de resultados, como el de páginas, cambia al mover la página de búsqueda hacia adelante y nunca logras inspeccionar los resultados más allá de una página determinada: seamos claros, los resultados que están en la página 30 no sirven para nadie, pero ¿por qué? Afirme que ¿La palabra clave "tallos impresos" tiene 160 resultados si se pueden ver menos de 300?

Google Search Suggest es la forma en que Google intenta "anticiparnos": al sugerirnos una intención de búsqueda que ya conoce, Google intenta guiarnos hacia una búsqueda a la que es capaz de responder sin trucos: convencer al usuario de que utilice una clave. Google no solo devuelve un resultado útil, sino que se ahorra tener que añadir una nueva palabra clave a la lista de aquellas en las que tendrá que gastar parte de su potencia informática.

Indulgencia operacional-funcional

Volviendo a Google Duplex, estamos en 2022 y hace tiempo que no hablamos de ello, pero de esta experiencia hemos aprendido que identificarse como un sistema conversacional artificial no es la respuesta a un problema ético sino un truco hacker: si los que converse con Duplex es consciente de que está hablando con un sistema automatizado, también sabe que debe moverse adecuadamente, apoyándolo en la conversación y ayudándolo a comprender su contenido.

Para Google Duplex, identificarse como un sistema artificial no es la respuesta a un problema ético sino un truco de hackers.

Cuando hablamos con Cortana, Alexa, Siri, siempre usamos automáticamente las mismas expresiones, las mismas fórmulas porque esto es fundamental si queremos evitar que nuestros sistemas no nos entiendan.

La identificación es para Google Duplex una forma de obtener de las personas "comprensión" de sus límites, una forma de indulgencia operativo-funcional que todos los humanos hemos aprendido a tener hacia esa tecnología que, esforzándose, no devuelve todo lo que tiene. creadores que prometen.

Artículo de Gianfranco Fedele

Boletín de innovación
No te pierdas las noticias más importantes sobre innovación. Regístrese para recibirlos por correo electrónico.

Artículos recientes

Veeam ofrece el soporte más completo para ransomware, desde protección hasta respuesta y recuperación.

Coveware by Veeam seguirá brindando servicios de respuesta a incidentes de extorsión cibernética. Coveware ofrecerá capacidades forenses y de remediación...

Abril 23 2024

Revolución verde y digital: cómo el mantenimiento predictivo está transformando la industria del petróleo y el gas

El mantenimiento predictivo está revolucionando el sector del petróleo y el gas, con un enfoque innovador y proactivo para la gestión de plantas.…

Abril 22 2024

El regulador antimonopolio del Reino Unido hace sonar la alarma de las BigTech sobre GenAI

La CMA del Reino Unido ha emitido una advertencia sobre el comportamiento de las Big Tech en el mercado de la inteligencia artificial. Allá…

Abril 18 2024

Casa Green: revolución energética para un futuro sostenible en Italia

El Decreto "Invernaderos", formulado por la Unión Europea para mejorar la eficiencia energética de los edificios, ha concluido su trámite legislativo con…

Abril 18 2024