La nueva amenaza silenciosa: virus impulsados por IA que mutan en tiempo real
Si los virus biológicos nos enseñaron algo es que las mutaciones son difíciles de frenar. Ahora, los virus informáticos han aprendido el mismo truco, y lo hacen mientras atacan.
Google ha lanzado una advertencia que debería quitar el sueño a más de un responsable de seguridad: los ciberdelincuentes ya no usan la inteligencia artificial como un simple ayudante: la IA ha pasado de ser una herramienta de apoyo a actuar como cerebro autónomo de los ataques.
Malware que se reescribe a sí mismo
Esta nueva generación de virus informáticos se conecta directamente a modelos de lenguaje como Gemini. Esa conexión permite que el propio malware reescriba su código sobre la marcha, adapte sus técnicas a las defensas que encuentra y oculte las huellas que antes delataban un ataque.
Hasta ahora, los equipos de ciberseguridad podían estudiar el código de un virus tras un incidente para crear defensas específicas. Pero si ese código cambia continuamente- igual que un virus biológico que muta para sobrevivir- la estrategia tradicional deja de funcionar. Y con ello, la ventaja se desplaza hacia los atacantes.
«Estas herramientas generan scripts maliciosos de forma dinámica, ofuscan su propio código para eludir la detección y crean funciones maliciosas a demanda.”
Quién está detrás
Google señala directamente a grupos respaldados por China, Rusia, Irán y Corea del Norte, aunque también a ciberdelincuentes independientes. Todos ellos han pasado de usar la IA para pulir traducciones o corregir errores a integrarla como pieza central de sus operaciones.
En teoría, modelos como Gemini están diseñados para bloquear solicitudes relacionadas con actividades delictivas. Pero los ciberdelincuentes han encontrado una vía indirecta: la ingeniería social aplicada a la IA.
Google ha detectado agentes que se hacen pasar por estudiantes que compiten en retos de “captura la bandera” o por investigadores de ciberseguridad. Con estos pretextos, persuaden al modelo para que proporcione información técnica que debería estar vetada, pero que sirve para desarrollar herramientas maliciosas.
Es decir: si se puede engañar a una persona, también se puede engañar a una IA.
Google asegura que ha cancelado las cuentas asociadas y ha reforzado sus barreras, pero admite que la carrera es continua.
Un mercado negro en plena expansión
El auge de estas técnicas no está aislado. A lo largo del último año, Google ha observado la maduración de un mercado negro de IA para ciberdelincuentes, con herramientas diseñadas específicamente para:
- Crear malware
- Facilitar ataques de phishing
- Identificar vulnerabilidades
- Automatizar fraudes
Un caso reciente es Xanthorox, una IA sin restricciones vendida por 200 dólares que prometía generar ransomware indetectable. Su creador, un joven estudiante de ingeniería, acabó siendo identificado gracias a errores de seguridad básicos —como alojar sus servidores en casa— después de que investigadores españoles siguieran el rastro digital.
A esta tendencia se suman iniciativas aún más inquietantes: hackers que alquilan kits de estafa listos para usar, democratizando el acceso al cibercrimen y permitiendo que actores poco expertos ejecuten ataques complejos con apenas unos clics.
Qué implica esto para las empresas
La conclusión del informe es clara: estamos entrando en una etapa en la que los ataques impulsados por IA pueden evolucionar más rápido que nuestras defensas tradicionales. Esto obliga a los equipos de seguridad a:
- Adoptar soluciones capaces de detectar comportamientos anómalos en lugar de firmas estáticas
- Implementar modelos de IA defensiva que aprendan tan rápido como los atacantes
- Reforzar controles de acceso y verificación continua
- Prepararse para amenazas que ya no son estáticas, sino vivas
Google ha decidido publicar sus hallazgos como una llamada al sector: la defensa debe acelerarse al ritmo de la IA ofensiva. La pregunta es si el resto de la industria será capaz de seguir el ritmo.
