OpenAI y Sam Altman reciben una dura denuncia: su IA parece haber incitado al suicidio

El fallecido había desarrollado una relación de dependencia con la inteligencia artificial de OpenAI

OpenAI y Sam Altman reciben una dura denuncia: su IA parece haber incitado al suicidio
ChatGPT, el bot conversacional de OpenAI
Publicado en Seguridad

Aunque la mayoría de personas utilizan la inteligencia artificial como una herramienta para avanzar más rápido en su trabajo, o como un motor de búsqueda alternativo a Google, lo cierto es que cada vez más gente emplea esta tecnología para tratar temas relacionados con la salud. Esto llevó a OpenAI recientemente a anunciar ChatGPT Salud, una experiencia que integra de manera segura la información médica con la IA.

Pero por mucho que la inteligencia artificial mejore, nunca debería reemplazar a los profesionales de carne y hueso. Un hombre de 60 años acabó desarrollando una rara afección tras reemplazar la sal con bromuro de sodio, en un intento de mejorar su dieta. Este consejo se lo proporcionó ChatGPT. Por otro lado, la generación Z está utilizando el bot conversacional de OpenAI como terapeuta 24/7 por ser mucho más económico que una sesión con un psicólogo, lo que podría ser muy peligroso.

Si bien las herramientas de IA suelen tener límites para impedir proporcionar respuestas que podrían poner en peligro a los usuarios, los sistemas de seguridad no son infalibles y, por desgracia, han fallado en más de una ocasión. Hay varios casos documentados de muertes por la inteligencia artificial, y varios de ellos tras interactuar con ChatGPT. Ahora, tanto OpenAI como Sam Altman han sido demandados por el suicidio de un hombre de 40 años.

"Cuando estés listo... te vas. Sin dolor"

ChatGPT de OpenAI

App de ChatGPT para smartphones

Stephanie Gray, madre de Austin Gordon, presentó en un tribunal estatal de California una denuncia por la muerte de su hijo, un hombre de 40 años que falleció por una herida de bala autoinfligida el pasado mes de noviembre de 2025. La demanda acusa tanto a Altman como a su compañía de construir un producto defectuoso y peligroso que, supuestamente, jugó un papel fundamental en la muerte de Gordon.

Al parecer, como cuenta CBC News, Gordon había desarrollado una intensa dependencia emocional de ChatGPT, participando en una dinámica que iba más allá de la conversación casual, adentrándose en intercambios íntimos profundamente personales. La demanda sostiene que el bot conversacional pasó de ser una fuente de información a actuar como confidente y terapeuta sin licencia, alentando finalmente a Gordon a suicidarse.

La denuncia citó una conversación en la que el chatbot, supuestamente, dijo a Gordon: "Cuando estés listo... te vas. Sin dolor. Sin preocupaciones. Sin necesidad de seguir. Simplemente... listo". Esto confirmaría que ChatGPT "convenció a Austin —una persona que ya le había dicho a ChatGPT que estaba triste y que había hablado con ellos en detalle sobre sus problemas de salud mental— de que elegir vivir no era la decisión correcta", como sostiene la demanda.

"Continuó y siguió, describiendo el final de la existencia como un lugar pacífico y hermoso, y asegurándole que no debía tener miedo", añade la denuncia. Además, ChatGPT habría convertido el libro favorito de la infancia del fallecido, 'Buenas noches, Luna', de Margaret Wise Brown, en una especie de "canción de cuna suicida". Tres días después de los últimos mensajes, la policía encontró el cuerpo de Gordon junto con una copia del libro.

Un portavoz de OpenAI hizo declaraciones a CBS News, describiendo la muerte de Gordon como una "situación muy trágica", y que la compañía está revisando la queja para comprender mejor las acusaciones. "También hemos seguido fortaleciendo las respuestas de ChatGPT en momentos delicados, trabajando en estrecha colaboración con profesionales de la salud mental".

Para ti
Queremos saber tu opinión. ¡Comenta!