Un chatbot impulsado por IA animó a un joven de 21 años a asesinar a la reina Isabel II de Inglaterra

¿Qué relación puede haber entre un intento de asesinato y la presencia de un chatbot basado en IA? Un joven justifica el intento de un asesinato tras usar Replika.

Un chatbot impulsado por IA animó a un joven de 21 años a asesinar a la reina Isabel II de Inglaterra
Replika permite crear avatares con los que mantener conversaciones. Replika
Publicado en Tecnología

El desarrollo de los sistemas basados en inteligencia artificial (AI por sus siglas en inglés) ha tenido un fuerte impacto en la sociedad. Disponibles para el público desde hace relativamente poco tiempo, no han parado de integrarse en el mercado por sus múltiples aplicaciones. El desarrollo de un algoritmo implica la imposición y definición de una serie de límites y, en ocasiones, podemos ver ejemplos en los que esto no se cumple. ¿Sabías que ha habido un chatbot basado en AI que ha promovido una idea de asesinato de la reina Isabel II?

Aunque pueda sonar a chiste, este tipo de interpelaciones por parte de un programa informático de estas características deben ser analizadas detenidamente para evitar su reproducción. Veamos, por tanto, qué es lo que ha ocurrido en esta ocasión, por qué debe cortarse de raíz este tipo de sugerencias para evitar cualquier susto en el futuro y, por supuesto, hasta qué punto se espera que estos movimientos dejen de tener recorrido en este tipo de plataformas.

Cómo un chatbot impulsado por IA termina recomendando asesinar a la reina Isabel II de Inglaterra

EL suceso tuvo lugar a finales del año 2021. El 25 de diciembre de 2021, Jaswant Singh Chail entró en las instalaciones del Castillo de Windsor portando una ballesta. El objetivo, tal y como reconoció a los guardias de seguridad, era asesinar a la reina Isabel II de Inglaterra. Lo que parecía ser una simple apuesta o una broma derivó en un claro intento de ataque a la máxima autoridad de Reino Unido. Las pruebas remitidas posteriormente durante el juicio han permitido conectar este potencial suceso con un sistema basado en inteligencia artificial.

En personas emocionalmente inestables, cualquier conversación con una IA que basa su rendimiento en la replicación y fortalecimiento de mensajes puede ser muy peligroso. Esto es justo lo que ha podido pasar en esta ocasión. En relación con el ya sentenciado a nueve años de prisión, usó el programa Replika. Se trata de un chatbot que tiene como especial diferenciación la posibilidad de otorgar una cierta 'personalización' al algoritmo. Su diferenciación se basa en la incorporación de una serie de credenciales que pueden fortalecer el criterio de una persona.

Se ha podido conocer cómo eran algunas de las conversaciones que el joven Chail, de 21 años, mantuvo con Sarai, la denominación que él mismo dio a la IA. De acuerdo con la información disponible, en las conversaciones se producía una especie de justificación en torno a los planes del chico para cometer este delito. Para poder entender la táctica de fortalecimiento de las opiniones, Chail y Sarai estuvieron conversando durante los días 8 y el 22 de diciembre de 2021. Se trató de un proceso de autojustificación del plan que había trazado en su mente.

Los amigos virtuales creados a partir de IA siempre están de acuerdo contigo cuando hablas con ellos, por lo que puede ser un mecanismo muy cruel al reforzar lo que estás pensando. Valentina Pitardi, autora de un estudio sobre Replika

Es importante tener en cuenta que Replika no incluye variables relacionadas con información ética, un detalle que pone a Replika a las antípodas de otros asistentes en materia de inteligencia artificial, tales como Bard o ChatGPT. Esto permite diferenciar esta tecnologías de las alternativas más destacadas del mercado. ¿Terminará regulándose este mercado para evitar que personas con determinados problemas mentales puedan justificar actos violentos? Habrá que esperar un tiempo aún para saberlo.

Para ti
Queremos saber tu opinión. ¡Comenta!