OpenAI restringirá conversaciones sexuales y sobre suicidio con menores en su chatbot
La compañía aplicará límites en interacciones sensibles y permitirá a los padres fijar “horarios de apagado”.

Sam Altman, CEO de Open AI, ha anunciado nuevas políticas enfocadas en reforzar la seguridad de los adolescentes que utilizan ChatGPT. Con una postura clara de que “la seguridad está por encima de la privacidad y la libertad para los menores”, la compañía busca limitar interacciones de riesgo y responder a críticas crecientes sobre el papel de los chatbots en situaciones de vulnerabilidad.
Entre las novedades más relevantes, OpenAI confirmó que ChatGPT dejará de entablar conversaciones de carácter sexual o “flirteo” con usuarios menores de 18 años. Además, se implementarán nuevos protocolos frente a escenarios de autolesión o suicidio. Si un adolescente utiliza el chatbot para imaginar situaciones de suicidio, el sistema intentará notificar primero a sus padres y, en casos graves, incluso a la policía local.
Estas medidas no son preventivas en abstracto. OpenAI enfrenta actualmente una demanda por homicidio interpuesta por los padres de Adam Raine, un joven que se quitó la vida tras meses de interacciones con ChatGPT. Casos similares también han salpicado a competidores como Character.AI, alimentando un debate sobre la responsabilidad de las empresas de IA frente a la salud mental de los menores.
Otro de los cambios anunciados es la incorporación de “blackout hours”, horarios de desconexión que los padres podrán fijar para restringir el uso de ChatGPT en determinados momentos del día. Esta opción nunca antes había estado disponible y responde a las preocupaciones sobre el uso excesivo de chatbots en adolescentes.
El anuncio se dio el mismo día que el Senado de Estados Unidos celebraba la audiencia “Examining the Harm of AI Chatbots”, impulsada por el senador republicano Josh Hawley. Entre los oradores se encuentra el padre de Adam Raine, lo que añade un peso simbólico y político al debate que está poniendo a la empresa en una situación muy compleja.
El desafío de diferenciar entre menores y adultos
La compañía reconoció que distinguir entre usuarios mayores y menores de 18 años es un reto técnico enorme. En un segundo comunicado, OpenAI explicó que está construyendo un sistema a largo plazo para identificar la edad del usuario. Cuando exista duda, el algoritmo aplicará la versión más restrictiva de las normas.
No obstante, OpenAI recomienda que los padres vinculen la cuenta del adolescente a la suya propia. Esta acción activa alertas automáticas en caso de que el sistema detecte comportamientos de riesgo o indicios de crisis emocional.
Pese a estas restricciones, Altman subrayó que la empresa mantiene su compromiso con la privacidad y la libertad de los adultos al usar ChatGPT. Reconoció que estas decisiones generan tensión: “Entendemos que estos principios están en conflicto, y no todos estarán de acuerdo con cómo los resolvemos”, señaló en el comunicado.
Un equilibrio difícil
La estrategia de OpenAI refleja el difícil equilibrio entre innovación, seguridad y libertad de expresión en el uso de chatbots avanzados. Por un lado, la compañía busca proteger a los adolescentes de situaciones que podrían derivar en tragedias. Por otro, intenta mantener la confianza de millones de adultos que ven en ChatGPT una herramienta útil y personalizable.
Lo cierto es que el caso Raine y las crecientes críticas en el Congreso estadounidense han colocado a OpenAI en el centro del escrutinio. Estas nuevas políticas podrían marcar un antes y un después en la forma en que las grandes tecnológicas gestionan el uso de IA conversacional por parte de los menores.