Anthropic endurece las reglas de Claude para frenar los peligros de la IA
Más seguridad contra armas y ciberataques, pero con matices políticos

El mundo de la inteligencia artificial avanza a una velocidad de vértigo, y con cada paso aparecen nuevas preguntas: ¿hasta dónde pueden llegar estas herramientas? ¿Quién se asegura de que no se usen para fines peligrosos? Y, sobre todo, ¿qué límites deben imponer las empresas que las desarrollan? La última en mover ficha ha sido Anthropic, la startup detrás de Claude, que acaba de actualizar su política de uso con cambios bastante significativos. Y aunque la mayoría tienen que ver con reforzar la seguridad frente a los usos más peligrosos de la IA, también hay ajustes curiosos en el ámbito político que no han pasado desapercibidos.
Una prohibición con nombres y apellidos
Hasta ahora, la política de Anthropic era clara: nada de usar Claude para producir, diseñar o distribuir armas, explosivos o cualquier sistema destinado a hacer daño. Pero con la nueva actualización, la compañía ha decidido ponerse más concreta. Ya no es solo una frase genérica, sino que prohíben de manera explícita el desarrollo de explosivos de alto poder, así como de armas nucleares, biológicas, químicas y radiológicas. En otras palabras: las temidas armas de destrucción masiva (las famosas CBRN por sus siglas en inglés).
¿El motivo? Muy sencillo: a medida que los modelos de lenguaje se vuelven más sofisticados, aumenta la preocupación de que alguien intente “exprimirlos” para obtener información sensible, fórmulas o instrucciones peligrosas. Aunque la mayoría de estas IAs ya traen bloqueos, Anthropic ha querido dejarlo por escrito y sin margen de interpretación.
Además, no todo queda en las armas físicas. Otra de las grandes novedades de la política es la inclusión de un apartado específico que prohíbe usar Claude para comprometer sistemas informáticos o redes.
Esto incluye desde buscar vulnerabilidades hasta crear malware, lanzar ataques de denegación de servicio (los famosos DDoS) o fabricar herramientas diseñadas para hackear. Básicamente, Anthropic está cerrando la puerta a que alguien utilice la IA como aliado para el cibercrimen. Y no lo hacen por capricho. En mayo ya habían introducido el llamado “AI Safety Level 3” con el lanzamiento de Claude Opus 4, un paquete de medidas diseñado precisamente para hacer el modelo más resistente frente a intentos de jailbreak (esos trucos para saltarse las restricciones). Ahora, con estas nuevas normas, ponen negro sobre blanco lo que antes estaba más difuso.
Cambios para evitar ciberataques y manipulaciones políticas
Otro de los puntos delicados son las llamadas herramientas “agentic AI”, es decir, aquellas que le permiten a Claude hacer algo más que chatear. Por ejemplo, Computer Use, que le da control directo sobre el ordenador del usuario, o Claude Code, que integra la IA directamente en la terminal de un desarrollador.
Estas funciones son potentes, pero también un arma de doble filo. Como reconoce la propia empresa, existe el riesgo de que se usen a gran escala para propagar malware o ejecutar ciberataques. De ahí que hayan querido ser especialmente tajantes en la prohibición.
Curiosamente, mientras refuerzan los límites en armas y ciberseguridad, Anthropic también ha decidido relajar sus restricciones en política.
Hasta ahora, estaba prohibido generar cualquier tipo de contenido relacionado con campañas electorales, partidos o lobby político. Pero a partir de ahora, Claude solo vetará los usos “deceptivos o que interfieran con procesos democráticos”, así como aquellos que tengan que ver con el targeting de votantes o campañas.
En el fondo, lo que vemos con estos cambios es el reflejo del gran dilema que atraviesa toda la industria de la inteligencia artificial: cómo permitir que estas herramientas desplieguen todo su potencial sin que se conviertan en un riesgo global. Anthropic, como otras empresas del sector, está caminando por esa cuerda floja: endurecer al máximo lo relacionado con armas y ciberseguridad, mientras deja un poco más de margen en áreas donde puede haber más negocio y menos riesgo directo. La lección es clara: las reglas de juego cambian constantemente. Y si usas estas herramientas, conviene estar al día para no llevarte sorpresas.