Se llama WormGPT y es el nuevo arma de la Dark Web para realizar ciberataques
Algunos maleantes digitales comienzan a darse cuenta de la utilidad de la inteligencia artificial para sus cibercrímenes.

La nueva era de herramientas de inteligencia artificial nos demuestra lo que la tecnología es capaz de hacer en pleno 2023. No sólo hablamos de generadores de imágenes como Midjourney, por ejemplo, o de chatbots como ChatGPT, sino que también empezamos a vislumbrar un futuro en el que las estafas y los fraudes online sean una mezcla del ingenio de habilidosos hackers y de la eficacia de la IA.
Nueva herramienta para el mal online: WormGPT
Bajo este curioso nombre, que podría traducirse como GusanoGPT, nos encontramos con un módulo de inteligencia artificial que se asienta sobre las bases de un modelo de lenguaje de gran tamaño denominado GPT-J, que, además es de código abierto.
Este último detalle es fundamental para entender cómo un modelo de lenguaje de código abierto puede ser modificado por hackers con malas intenciones para eliminar ciertas restricciones de los modelos convencionales y así poder, por ejemplo, crear virus y malware con el beneplácito de una tecnología pensada para ayudar al ser humano.
Beware of Emerging Cyber Threats: FraudGPT & WormGPT
— Whag App (@whag_app) November 2, 2023
In the evolving digital landscape, cyber threats are becoming more sophisticated, posing significant risks to individuals and organizations alike. The newest step in this evolution is two emerging threats: FraudGPT and WormGPT. pic.twitter.com/Sl7HS1Mt1B
Los ataques de phishing han sido una de las primeras utilidades dadas a esta IA criminal, aunque dadas sus múltiples habilidades, entre las que destacan el soporte de caracteres ilimitados o el formateo de código, parece que solamente estamos ante la antesala de lo que podría estar por venir.
Sin duda alguna, los más modernos chatbots están alucinando a millones de usuarios alrededor del mundo por una causa fundamental: la sencillez de uso de su interfaz. En este caso, imagina si existiese una herramienta similar, pero con la capacidad de causar daño sin ningún tipo de límite. Este es el verdadero peligro de WormGPT.
Hackers new favorite tool:#WormGPT - a malicious AI tool, the dark counterpart to ChatGPT, lacking ethical boundaries, openly sold on a hacker forum.
— A. H ♉|❤️memecoin| (@FreeA_H) November 4, 2023
It boasts unlimited character support, chat memory retention, and code formatting, enabling large-scale cybercriminal attacks.. pic.twitter.com/xvG2cpuKzq
Eso sí, existen otros peligros fuera de WormGPT, como la posibilidad de corromper al propio ChatGPT para que realice acciones para las que no debería estar preparado. Y es que algunos hackers estarían utilizando el chatbot de OpenAI para extraer información sensible, generar contenido inapropiado o ejecutar códigos maliciosos.
La defensa contra este tipo de herramientas pasa por que los expertos en ciberseguridad utilicen los modelos de IA en su favor para detectar y contrarrestar este tipo de chatbots maliciosos y a los cibercriminales que utilizan la inteligencia artificial en favor de sus propios intereses. Además, la prevención y detección de cualquier tipo de estafa online debería ser uno de los grandes aspectos a integrar en la formación de cualquier tipo de trabajador.