El nuevo agente de IA de ChatGPT puede provocar un "Raccon City" real: ayuda a desarrollar armas biológicas peligrosas
El nuevo agente de ChatGPT puede realizar tareas de principio a fin en nombre de los usuarios

A mediados de julio, OpenAI, la compañía encargada del desarrollo de ChatGPT, el popular bot conversacional, estrenó su nuevo agente. Una herramienta que puede trabajar por ti usando tu propio ordenador, gestionando diversas tareas desde su comienzo hasta su final. Los usuarios pueden pedirle que gestione su calendario para que elabore un resumen con las reuniones con los clientes según las últimas noticias, o analizar a los competidores y crear una presentación. Incluso planificar un desayuno de estilo japonés.
El nuevo agente de ChatGPT, según la compañía, está basado en un sistema autónomo que aúna los puntos fuertes de Operator (interactuar con páginas web), la capacidad de investigación en profundidad para resumir información y la naturalidad de expresión del bot conversacional. Entonces, ChatGPT cambia rápidamente entre dichas capacidades y las de ejecución para gestionar los flujos de trabajo completos de principio a fin, según las indicaciones de los usuarios.
Como explica OpenAI en su comunicado oficial, solo los usuarios Pro, Plus y Team pueden acceder al agente de ChatGPT y aprovechar sus posibilidades. Si bien la mayoría lo usará para mejorar su rendimiento y productividad, hay quien podría emplearlo para hacer el mal y desarrollar armas biológicas peligrosas "a lo Resident Evil", como ha advertido la compañía de Sam Altman.
"Según nuestras evaluaciones y las de nuestros expertos, el riesgo es muy real"
Tanto si eres fan de los videojuegos o has visto las películas protagonizadas por Milla Jovovich (que poco tienen que ver con ellos), sabrás que en su mundo existe una compañía farmacéutica llamada Umbrella que, de puertas para dentro, diseña peligrosas armas biológicas, lo que llevó a la destrucción de la ciudad Raccon City. Pues las probabilidades de que esto se traslade al mundo real han aumentado exponencialmente con el nuevo agente de ChatGTP.
El nuevo agente de ChatGPT es el primer producto que OpenAI ha clasificado con una capacidad "alta" para el riesgo biológico, lo que significa que podría brindar asistencia significativa a usuarios interesados en la creación de amenazas biológicas o químicas conocidas. De este modo, los eventos terroristas biológicos o químicos se volverían más probables y frecuentes.
ChatGPT Agent is the first model we classified as "High" capability for biorisk.
— Boaz Barak (@boazbaraktcs) July 17, 2025
Some might think that biorisk is not real, and models only provide information that could be found via search. That may have been true in 2024 but is definitely not true today. Based our… https://t.co/BOgoZcNpzK
"Algunos podrían pensar que el riesgo biológico no es real y que los modelos solo proporcionan información que se puede encontrar mediante búsquedas. Esto podría haber sido cierto en 2024, pero definitivamente no lo es hoy. Según nuestras evaluaciones y las de nuestros expertos, el riesgo es muy real", declaró Boaz Barak, del equipo técnico de OpenAI en una publicación en X.
Si bien no podemos afirmar con certeza que este modelo pueda permitir a un novato crear daños biológicos graves, creo que hubiera sido profundamente irresponsable lanzar este modelo sin mitigaciones integrales como la que hemos implementado
OpenAI ha asegurado que clasificar el modelo como de alto riesgo de mal uso biológico fue, en principio, un "enfoque de precaución" y que había activado medidas de seguridad adicionales para la herramienta. Estas medidas incluyen que el agente de ChatGPT rechace las solicitudes que podrían estar destinadas a ayudar a alguien a producir un arma biológica y sistemas que marcan las solicitudes potencialmente inseguras para su revisión por parte de expertos.