Meta lanzará controles parentales para las conversaciones de adolescentes con IA en Instagram
La compañía permitirá a los padres desactivar o limitar las conversaciones de sus hijos con personajes de inteligencia artificial.

Meta ha anunciado una serie de nuevas funciones de control parental destinadas a supervisar y limitar las conversaciones que los adolescentes mantienen con personajes impulsados por inteligencia artificial dentro de sus plataformas, como Instagram y Messenger. Estas herramientas, que se desplegarán a lo largo del próximo año, permitirán bloquear personajes específicos, restringir temas de conversación y desactivar por completo los chats con IA.
La compañía, que lleva meses ajustando sus políticas para jóvenes, explicó que los padres podrán decidir si sus hijos adolescentes pueden o no interactuar con los personajes de IA creados por Meta. En los próximos meses, los adultos podrán incluso desactivar todas las conversaciones con estos personajes, aunque la función no afectará al chatbot principal de la compañía, Meta AI, que seguirá disponible pero limitado a contenidos apropiados para la edad.
Supervisar sin invadir: el nuevo enfoque de Meta hacia la IA y los adolescentes
Además de ofrecer un control total, los padres podrán aplicar medidas selectivas, como bloquear solo a ciertos personajes o recibir informes periódicos sobre los temas de conversación que los adolescentes mantienen con las inteligencias artificiales. Según Meta, esta opción pretende dar a los tutores una herramienta de supervisión equilibrada, que ofrezca visibilidad sin invadir la privacidad de los jóvenes.
Las nuevas funciones se estrenarán primero en Instagram a comienzos del próximo año, disponibles en inglés para usuarios de Estados Unidos, Reino Unido, Canadá y Australia. En un comunicado firmado por Adam Mosseri, responsable de Instagram, y Alexandr Wang, nuevo jefe de Meta AI, la empresa señaló: “Sabemos que los padres ya tienen bastante con gestionar la seguridad de sus hijos en Internet. Nuestro objetivo es ofrecerles herramientas y recursos que simplifiquen esa tarea, especialmente ante tecnologías emergentes como la inteligencia artificial.”
Estas medidas se suman a un paquete más amplio de políticas orientadas a la protección de menores. A principios de esta misma semana, Meta anunció que su contenido y experiencias con IA para adolescentes seguirán el estándar PG-13, similar al de las películas de esa clasificación. Eso implica evitar temas como violencia extrema, desnudos o consumo gráfico de drogas. Además, la compañía confirmó que los adolescentes solo pueden interactuar con un número limitado de personajes diseñados bajo estas directrices, y que los padres podrán establecer límites de tiempo en el uso de la IA.
En paralelo, Instagram ha comenzado a utilizar sistemas de inteligencia artificial para detectar cuentas que falsean la edad con el fin de eludir los límites de acceso a la plataforma. Este sistema, aún en expansión, busca frenar la presencia de menores en espacios no adecuados para ellos y reforzar los mecanismos de verificación de edad.
El anuncio de Meta llega en un momento en el que la seguridad digital de los adolescentes se ha convertido en un tema central para la industria tecnológica. En las últimas semanas, OpenAI, YouTube y la propia Meta han presentado controles similares centrados en la gestión de interacciones con IA, tras una oleada de preocupación pública por el impacto de las redes sociales en la salud mental juvenil.
La presión legal también aumenta: varias demandas recientes acusan a empresas de inteligencia artificial y redes sociales de haber contribuido a casos de suicidio entre adolescentes al no controlar adecuadamente el contenido o las interacciones algorítmicas. Aunque Meta no se ha pronunciado directamente sobre estos litigios, su reciente estrategia apunta claramente hacia una postura más proactiva en materia de bienestar y seguridad infantil.
El desafío, sin embargo, sigue siendo complejo. Las nuevas generaciones están creciendo en un entorno donde la línea entre lo humano y lo artificial se difumina rápidamente. La compañía de Mark Zuckerberg parece entender que la confianza de los padres será un factor decisivo para el futuro de la IA social, y por eso busca una coexistencia entre libertad, creatividad y protección. Si estas herramientas logran ese equilibrio, podrían marcar un precedente en cómo las grandes tecnológicas abordan la interacción entre menores y sistemas inteligentes.