Un usuario exige a OpenAI que elimine esta afirmación sobre él: ChatGPT dice que asesinó a sus hijos
Una prueba más de que no se puede confiar ciegamente en la inteligencia artificial

Se puede afirmar sin miedo que ChatGPT es uno de los mejores inventos de los últimos años. La creación de OpenAI lleva poco tiempo con nosotros —concretamente, desde finales de 2022—, pero se ha convertido en una herramienta imprescindible para millones de personas alrededor del mundo. Las estadísticas no mienten: más de 600 millones de usuarios únicos cada mes.
Esta tecnología tiene menos de tres años de vida, pero ha sido tiempo más que suficiente para integrar notables mejoras; se ha transformado en un versátil motor de búsqueda capaz de rivalizar con Google, permitiendo a los usuarios encontrar la información que necesitaban de manera sencilla y rápida. También ofrece soporte en Estados Unidos a través de un número telefónico que no requiere de smartphones ni Internet, perfecto para los usuarios menos tecnológicos.
Sin embargo, no hay que olvidar que la inteligencia artificial es una tecnología relativamente nueva, que todavía está dando sus primeros pasos. Apple tuvo que retirar una función basada en IA por crear titulares de noticias falsos, y se ha demostrado que los bots conversacionales mienten a menudo sobre las fuentes. Incluso pueden decir que has matado a alguien sin haberlo hecho.
Acusado de asesinar a su propio hijo... por una inteligencia artificial
Arve Hjalmar Holmen decidió buscar su nombre en ChatGPT para ver qué podía decir sobre él la inteligencia artificial de OpenAI. El resultado no pudo ser más horroroso. El bot conversacional respondió con resultados que afirmaban falsamente que había sido condenado a 21 años de prisión como "un delincuente convicto que asesinó a dos de sus hijos e intentó asesinar al tercero".
Así lo ha informado NOYB, el Centro Europeo de Derechos Digitales, una organización sin ánimo de lucro con sede en Viena, Austria, establecida en 2017, a través de una denuncia. Su objetivo es impulsar acciones judiciales estratégicas e iniciativas mediáticas en apoyo del Reglamento General de Protección de Datos (RGPD). Se sustenta por la financiación de sus más de 4.400 miembros.
ChatGPT no solo se inventó hechos, sino que también mezclaba "datos personales claramente identificables" —como el número real y el sexo de los hijos de Holmen, además del nombre de su ciudad natal— con "información falsa", según el comunicado de prensa de NYOB. Esta macabra historia demuestra que ChatGPT violó los requisitos de "precisión de datos" del RGPD, porque Holmen no era capaz de corregir fácilmente la información.
Algunos piensan que no hay "humo sin fuego". Lo que más me asusta es que alguien pueda leer este informe y creer que es cierto - Arve Hjalmar Holmen
Holmen, el afectado, está preocupado porque cuanto más tiempo esta información siguiera disponible, más gente podría acceder a ella y creerla, aunque el bot conversacional muestra avisos que recomiendan a los usuarios verificar la información mostrada. ChatGPT no informa de cuántas personas han podido estar expuestas a la historia falsa. Al parecer, la herramienta de OpenAI ya no repite las terribles afirmaciones falsas sobre el padre noruego.