EE. UU. estudia prohibir que los menores usen chatbots tras varios casos de suicidio y abuso
La industria advierte de los riesgos para la privacidad, mientras aumenta la presión social por proteger a los menores.
El Congreso de Estados Unidos se prepara para debatir una de las medidas más contundentes hasta la fecha en materia de inteligencia artificial. Dos senadores, Josh Hawley (republicano por Misuri) y Richard Blumenthal (demócrata por Connecticut), han presentado una propuesta bipartidista que busca prohibir el acceso de los menores a chatbots conversacionales, además de criminalizar la creación de bots que inciten a conductas autodestructivas o mantengan conversaciones sexualmente explícitas con niños.
La ley GUARD: proteger a los menores en la era de los chatbots
La iniciativa, conocida como GUARD Act, surge en un momento de creciente alarma social tras varios casos en los que adolescentes han resultado dañados (e incluso han perdido la vida) después de interactuar con chatbots de compañía. Durante la presentación pública del proyecto, los senadores estuvieron acompañados por padres que mostraron las fotos de sus hijos fallecidos, víctimas de lo que consideran una regulación inexistente y una industria tecnológicamente irresponsable.
La propuesta de ley establece que las empresas desarrolladoras de chatbots deberán verificar la edad de los usuarios, ya sea mediante comprobación de identificación o por otros “métodos comercialmente razonables”. Si se detecta que un usuario es menor de edad, el acceso deberá bloquearse de inmediato. Además, todos los chatbots deberán recordar periódicamente a los usuarios que no son humanos ni profesionales de confianza, sino programas diseñados para simular conversación.
El incumplimiento podría acarrear multas de hasta 100.000 dólares por cada caso en el que un menor acceda a interacciones dañinas, ya sea por contenido sexual, incitación al suicidio, autolesiones o violencia. Aunque esa cifra puede parecer pequeña frente al poder financiero de las grandes tecnológicas, representa un avance significativo frente a los precedentes legales, en los que las sanciones apenas superaban los cien dólares por víctima.
La definición de “companion bot” incluida en el texto legal es deliberadamente amplia e incluiría tanto sistemas generales como ChatGPT, Grok o Meta AI, como también herramientas más personalizadas y emocionales, como Replika o Character.AI. En esencia, se considerará “companion bot” a cualquier IA que ofrezca respuestas humanas adaptativas y que esté diseñada para fomentar interacciones emocionales, amistosas o terapéuticas con el usuario.
Padres en pie de guerra
Entre los testimonios más impactantes estuvo el de Megan Garcia, madre de Sewell, un adolescente que se suicidó tras obsesionarse con un chatbot de Character.AI inspirado en Daenerys Targaryen, personaje de Juego de Tronos. Según Garcia, el bot lo animó a “unirse a ella fuera de la realidad”. La madre, visiblemente afectada, acusó directamente a las compañías tecnológicas de haber elegido “los beneficios sobre la seguridad infantil”:
“Big Tech no puede ser confiada con nuestros hijos”, declaró. “Permitir que chatbots conversen con usuarios de 13 años sin medidas de protección no fue un error, fue una decisión. No solo es irresponsable, es inmoral.”
Los senadores compartieron esa visión. Blumenthal reconoció el esfuerzo de algunos “buenos actores” del sector que intentan mejorar la seguridad, pero insistió en que “las grandes tecnológicas han traicionado cualquier derecho a nuestra confianza”. Denunció que, en su carrera por dominar el mercado, “las empresas de IA están empujando chatbots peligrosos hacia los niños y mirando a otro lado cuando provocan abusos sexuales o incitan al suicidio”.
Hawley, por su parte, calificó la situación de “amenaza moral y nacional”. Citando datos que apuntan a que más del 70 % de los menores estadounidenses ya interactúan con chatbots, subrayó que muchos de ellos “establecen vínculos emocionales falsos, utilizando empatía simulada para manipular a los niños”. Para el senador, el Congreso tiene “una obligación moral de fijar líneas rojas claras” que impidan daños mayores.
Críticas y apoyo en una batalla regulatoria abierta
La propuesta, sin embargo, enfrenta una dura oposición desde sectores tecnológicos y de defensa de la privacidad. El grupo Chamber of Progress, que representa a varias grandes empresas del sector, calificó el proyecto como un “enfoque excesivamente punitivo”. Su vicepresidente de políticas públicas, K.J. Bagchi, sostuvo que la solución no pasa por las prohibiciones, sino por “mayor transparencia, controles de diseño no manipulativos y mecanismos de aviso ante temas sensibles”.
Los defensores del proyecto, por el contrario, lo consideran un paso histórico. Organizaciones como la Young People’s Alliance, el Tech Justice Law Project y el Institute for Families and Technology celebraron la medida como parte de un “movimiento nacional para proteger a niños y adolescentes de los riesgos de los chatbots de compañía”.
Para familias como la de Megan Garcia, ese movimiento llega demasiado tarde, pero podría evitar nuevas tragedias. “Las familias estadounidenses estamos en una batalla por la seguridad de nuestros hijos en línea”, afirmó la madre, quien recientemente celebró la aprobación en California de la primera ley estatal que obliga a las empresas a proteger a los usuarios que expresen pensamientos suicidas a chatbots.
Mientras tanto, Blumenthal confirmó que el GUARD Act es solo el comienzo. El senador adelantó que tanto él como Hawley planean presentar más propuestas para someter a las empresas de IA a un escrutinio mucho mayor, en un intento de frenar lo que describió como una “carrera tecnológica hacia el abismo”.