ChatGPT utilizará técnicas de predicción para añadir limitaciones a los usuarios menores de edad
OpenAI prepara nuevas medidas de seguridad ante las exigencias de cada vez más países de restringir el acceso a ciertos servicios online a menores de edad
Mentir sobre la edad que se tiene en Internet es algo que se lleva haciendo desde hace más de dos décadas; prácticamente desde que es posible acceder a él desde las casas, a través de un ordenador personal. Los que más lo hacen son los menores de 18 años para visitar sitios web y usar servicios solo aptos para adultos. Y es algo que se va a intentar hacer todavía más en países como Australia, donde se ha endurecido el acceso a redes sociales, por ejemplo, si no se ha cumplido 16 años.
Para garantizar que los más jóvenes no consumen contenido inapropiado (como pornografía o apuestas), algunas plataformas han empezado a implementar sistemas de verificación de identidad, ya sea a través de entidades intermedias, como la compañía telefónica, o tecnologías de biométrica y documentos que escanean el pasaporte o el carné de conducir para confirmar que tras la solicitud de acceso no se encuentra un menor.
En el caso de ChatGPT, los usuarios entre 13 y 18 años deben pedir primero permiso a sus padres o tutores para utilizar el servicio. El problema es que muchos acceden sin solicitarlo. Así que OpenAI ha empezado a implementar un nuevo sistema de predicción de edad que tiene como objetivo identificar con mayor precisión a los usuarios menores de edad.
ChatGPT para menores de edad reduce la exposición a categorías de alto riesgo
We’re rolling out age prediction on ChatGPT to help determine when an account likely belongs to someone under 18, so we can apply the right experience and safeguards for teens.
— OpenAI (@OpenAI) January 20, 2026
Adults who are incorrectly placed in the teen experience can confirm their age in Settings > Account.…
Independientemente de la edad que los usuarios afirmen tener al configurar su cuenta de ChatGPT, la herramienta de inteligencia artificial va a adoptar nuevas medidas de seguridad automatizadas que analizan el comportamiento del usuario para determinar si miente o no al respecto. De este modo, aplicará las protecciones adecuadas a las cuentas de adolescentes y permitirá a los adultos acceder a ChatGPT con menos restricciones.
Este modelo de predicción de edad evalúa una combinación de señales de nivel de cuenta y de comportamiento, entre los que se incluye la antigüedad de la cuenta, los patrones de uso a lo largo del tiempo y las horas de actividad habituales (si el chatbot ve que suele usarse en horario laboral, que es cuando los niños y adolescentes deberían estar en el colegio, es posible que determine que está siendo utilizado por un adulto).
El nuevo sistema también tendrá en cuenta la información sobre la edad proporcionada previamente por los usuarios. El conjunto, según OpenAI, ayuda a determinar la edad sin forzar indicaciones o controles constantes de identidad, lo cual puede abrumar y hasta repeler a los usuarios con el paso del tiempo. Si la tecnología no saca nada en claro tas analizar las señales, ofrece automáticamente una experiencia más segura.
Cuando el sistema predictivo de ChatGPT determina que el bot conversacional está siendo usado por un niño o adolescente menor de 18 años, aplica automáticamente medidas de seguridad adicionales para reducir la exposición a categorías de contenido consideradas de alto riesgo para ellos (violencia gráfica, imágenes sangrientas y representaciones de autolesiones, así como juegos de rol sexuales y desafíos virales).
Para desarrollar el sistema, OpenAI asegura haber trabajado con expertos en desarrollo infantil. También ha citado investigaciones que demuestran que los adolescentes difieren de los adultos en la percepción del riesgo y el control de los impulsos. Como la compañía es consciente de los falsos positivos, permite a los usuarios mayores de 18 años recuperar el acceso completo tras la verificación de edad, que utiliza un selfie mediante Persona.