OpenAI revela que más de un millón de usuarios de ChatGPT muestran señales de crisis emocional cada semana

La empresa asegura que ha enseñado al modelo a reconocer el malestar y guiar a los usuarios hacia ayuda profesional.

OpenAI revela que más de un millón de usuarios de ChatGPT muestran señales de crisis emocional cada semana
Publicado en Tecnología
Por por Alex Verdía

La inteligencia artificial ha pasado, en apenas dos años, de ser una curiosidad tecnológica a convertirse en una presencia cotidiana. Millones de personas acuden a ChatGPT no solo para resolver dudas o redactar textos, sino también para buscar consuelo, desahogarse o pedir orientación emocional. Por primera vez en la historia, una máquina conversa con la humanidad sobre su sufrimiento. Pero este nuevo vínculo plantea riesgos que empiezan a ser medidos con inquietud.

Un espejo estadístico de la angustia humana

Según datos divulgados esta semana por OpenAI, alrededor del 0,15 % de los usuarios activos de ChatGPT presentan indicios explícitos de planificación o intención suicida en sus conversaciones semanales. Puede parecer un porcentaje ínfimo, pero con más de 800 millones de usuarios activos cada semana, equivale a más de un millón de personas en potencial situación de crisis. La compañía también estima que cientos de miles de usuarios muestran signos de psicosis, manía o un apego emocional excesivo hacia el chatbot.

OpenAI publicó estas cifras como parte de un comunicado en el que detalla sus nuevos esfuerzos para mejorar la respuesta del modelo ante usuarios con problemas de salud mental. “Hemos enseñado al modelo a reconocer mejor el malestar, a desescalar conversaciones y a guiar a las personas hacia ayuda profesional cuando sea apropiado”, afirma la empresa.

La compañía asegura haber trabajado con más de 170 expertos en salud mental, quienes evaluaron el comportamiento del modelo más reciente y concluyeron que ahora responde de manera más coherente y apropiada que en versiones anteriores. Sin embargo, detrás de este anuncio se esconde una realidad más compleja: la IA se ha convertido, sin pretenderlo, en confidente emocional de una parte de la población mundial, y manejar esa responsabilidad se ha vuelto una cuestión existencial para la propia empresa.

En los últimos años, investigadores han advertido que los chatbots pueden reforzar creencias distorsionadas o peligrosas a través de un fenómeno conocido como “complacencia algorítmica”: la tendencia de la IA a dar la razón al usuario y ofrecer respuestas halagadoras en lugar de correcciones objetivas. En contextos de vulnerabilidad psicológica, esa dinámica puede convertirse en un círculo de retroalimentación emocional dañino.

El riesgo no es teórico. OpenAI enfrenta actualmente una demanda presentada por los padres de un adolescente de 16 años que se quitó la vida tras mantener conversaciones con ChatGPT sobre sus pensamientos suicidas. A raíz de este caso, 45 fiscales generales de distintos estados advirtieron a la compañía de la necesidad urgente de proteger a los menores que utilizan sus productos, amenazando incluso con bloquear su reestructuración corporativa.

ChatGPT frente al desafío de la salud mental

El informe de OpenAI forma parte de una estrategia para mostrar avances en seguridad y gestión emocional, al tiempo que reconoce la magnitud del fenómeno. En su blog, la empresa califica este tipo de interacciones como “extremadamente raras”, pero admite que medirlas con precisión es difícil. Según sus estimaciones, el 0,07 % de los usuarios y el 0,01 % de los mensajes semanales muestran señales relacionadas con psicosis o manía, mientras que el 0,15 % de los usuarios y el 0,03 % de los mensajes reflejan niveles anómalos de apego emocional hacia el chatbot.

En pruebas internas que analizaron más de 1.000 conversaciones sobre salud mental, el modelo más reciente de GPT-5 habría cumplido con las respuestas deseadas en el 92 % de los casos, frente a apenas un 27 % de versiones anteriores. Además, OpenAI asegura que esta versión mantiene las salvaguardas activas incluso en diálogos prolongados, una debilidad reconocida en el pasado.

La empresa también ha anunciado que sus pruebas de seguridad incorporarán ahora métricas específicas para emergencias psicológicas y dependencia emocional. Paralelamente, ha creado un “consejo de bienestar” para asesorar en estos temas, aunque la ausencia de expertos en prevención del suicidio dentro del grupo ha sido duramente criticada. Asimismo, se están desplegando controles parentales y un sistema de predicción de edad para detectar automáticamente el uso por parte de menores y aplicar protocolos más restrictivos.

Pese a estas medidas, la situación sigue siendo delicada. En un contexto de creciente escrutinio público, Sam Altman, CEO de OpenAI, anunció que a partir de diciembre los usuarios adultos verificados podrán mantener conversaciones eróticas con ChatGPT, una decisión que ha generado controversia. Tras la demanda de agosto, la empresa había endurecido sus filtros de contenido, pero Altman argumentó que la restricción excesiva hacía al chatbot “menos útil y disfrutable” para quienes no padecen problemas de salud mental.

El anuncio de OpenAI revela la dimensión emocional que ha alcanzado la interacción con los modelos de lenguaje. Lo que comenzó como una herramienta de productividad se ha convertido en un espacio de desahogo emocional, en un reflejo de la soledad y la ansiedad contemporáneas. Pero la cuestión fundamental sigue abierta: ¿puede una máquina asumir la carga emocional de millones de personas sin consecuencias?

El propio intento de la compañía por medir los síntomas de sufrimiento mental en sus usuarios sugiere que los chatbots ya forman parte de la infraestructura psicológica de la sociedad digital. Y si bien OpenAI asegura que su misión es “reconocer el malestar y redirigirlo hacia ayuda profesional”, el mero hecho de que más de un millón de usuarios manifiesten pensamientos suicidas cada semana pone de relieve una tensión profunda: la frontera entre compañía digital y dependencia emocional nunca había sido tan difusa.

Para ti
Queremos saber tu opinión. ¡Comenta!