El malware generado por inteligencia artificial sigue siendo torpe y fácil de detectar
Un informe de Google revela que las muestras de malware generadas con IA son ineficaces y poco avanzadas
Google ha revelado esta semana los resultados de un análisis que pone en entredicho uno de los grandes temores del momento: la supuesta proliferación de malware generado por inteligencia artificial. Según el informe, la compañía examinó cinco muestras recientes de software malicioso construido con ayuda de modelos generativos, y todas ellas demostraron un nivel técnico muy por debajo del estándar profesional. En otras palabras, el malware “escrito” por IA todavía está muy lejos de suponer una amenaza real para la ciberseguridad global.
Un experimento más académico que peligroso
Entre los ejemplos analizados figura PromptLock, un programa descrito en un estudio académico como un intento de usar grandes modelos de lenguaje para “planificar y ejecutar de forma autónoma el ciclo completo de un ataque de ransomware”. La idea era comprobar si una IA podía diseñar por sí sola un ataque eficaz. El resultado, sin embargo, fue decepcionante: el malware carecía de persistencia, movimiento lateral o técnicas avanzadas de evasión, y se limitaba a demostrar la viabilidad teórica del experimento. Antes de la publicación del estudio, la firma de ciberseguridad ESET había identificado la muestra y la había calificado como “el primer ransomware potenciado por IA”, aunque la descripción de Google sugiere que esa etiqueta fue prematura.
Las otras cuatro muestras resultaron igual de ineficaces. Todas reutilizaban tácticas ya conocidas y podían ser detectadas incluso por sistemas de seguridad básicos. Ninguna aportaba mecanismos novedosos ni requería defensas adicionales. “Más de tres años después del auge de la IA generativa, el desarrollo de amenazas sigue siendo dolorosamente lento”, afirmó el investigador independiente Kevin Beaumont. Otro experto, que prefirió permanecer anónimo, fue aún más tajante: “La IA no está creando un malware más aterrador; solo ayuda a los desarrolladores a hacer su trabajo. No hay nada nuevo bajo el sol.”
Esta conclusión contradice el relato alarmista impulsado por varias empresas del sector, interesadas en exagerar la amenaza para captar atención mediática o inversión. Startups como ConnectWise o BugCrowd han difundido informes que aseguran que la IA está “bajando la barrera de entrada” al mundo del cibercrimen, al permitir que actores poco experimentados generen código dañino con facilidad. Incluso OpenAI ha reconocido haber detectado hasta veinte grupos que utilizaron ChatGPT para probar código malicioso. Sin embargo, en casi todos esos informes aparece una letra pequeña: los resultados obtenidos fueron mediocres y no demostraron avances significativos respecto a las técnicas ya conocidas.
Google va aún más lejos al poner cifras y contexto a la cuestión. En su análisis, la compañía afirma que no hay evidencia de automatización exitosa ni de capacidades inéditas en los programas desarrollados con IA. En otras palabras, las herramientas generativas todavía no consiguen producir ciberataques sofisticados de manera autónoma. Lo que sí descubrieron los investigadores fue un caso aislado de manipulación del sistema de seguridad de Gemini, el modelo de lenguaje de Google. Un grupo de usuarios logró eludir sus restricciones haciéndose pasar por investigadores de ciberseguridad que participaban en un ejercicio de capture the flag (una competición donde los participantes practican técnicas ofensivas y defensivas). El incidente sirvió para reforzar los mecanismos de protección del modelo, que fueron reajustados para resistir mejor ese tipo de engaños.
El informe desmonta así la narrativa del “malware del futuro” impulsado por la IA. Si bien los modelos generativos pueden asistir a los ciberdelincuentes en tareas básicas como escribir código o analizar errores, su capacidad creativa y estratégica sigue siendo limitada. Los ataques más peligrosos del panorama actual continúan basándose en métodos tradicionales: ingeniería social, explotación de vulnerabilidades conocidas, phishing o infecciones mediante archivos adjuntos.
No obstante, el estudio también deja entrever un mensaje de precaución. Aunque el malware creado por IA no sea una amenaza inmediata, el avance de los modelos generativos podría acelerar su evolución en los próximos años. “La IA mejorará, eso es inevitable, pero cuándo y cuánto es una incógnita”, señalaba uno de los expertos citados. Por ahora, el panorama real es más modesto de lo que algunos quieren hacer creer: las herramientas de inteligencia artificial todavía no superan la destreza humana ni la experiencia acumulada de los grupos criminales organizados.
En definitiva, el informe de Google sirve para poner los pies en la tierra en un debate dominado por hipótesis. La inteligencia artificial está transformando la programación, la automatización y la defensa digital, pero el malware verdaderamente peligroso sigue siendo obra de cerebros humanos, no de algoritmos. Por ahora, las máquinas no han aprendido a ser maliciosas; solo a imitar, torpemente, a quienes ya lo eran.