Los ataques cibernéticos habilitados por IA aumentaron un 89 por ciento en 2025, según CrowdStrike, y el tiempo de permanencia promedio de los atacantes se redujo a solo 29 minutos, un descenso del 65 por ciento con respecto al año anterior. La rápida aceleración coincide con la implementación del modelo Mythos de Anthropic, un poderoso sistema de inteligencia artificial diseñado para automatizar la descubierta de vulnerabilidades y la generación de exploits.
Los insiders de la industria dicen que Mythos podría inclinar la balanza a favor de los atacantes. "El juego es asimétrico; es más fácil identificar y explotar que solucionar todo a tiempo", dijo una fuente cercana a un laboratorio de inteligencia artificial de vanguardia a The Financial Times. Graham de Anthropic repitió esas preocupaciones, señalando que las empresas podrían descubrir "más vulnerabilidades de las que podrían solucionar en el futuro cercano" si implementan Mythos sin salvaguardias estrictas.
El pasado septiembre, Anthropic detectó la primera campaña de espionaje cibernético impulsada por IA atribuida a un grupo patrocinado por el estado chino. Los actores utilizaron el asistente de codificación Claude Code de Anthropic para infiltrarse en unos 30 objetivos globales, que van desde importantes empresas de tecnología y instituciones financieras hasta fabricantes de productos químicos y agencias gubernamentales. Aunque la campaña logró un éxito limitado, requirió una supervisión humana mínima, lo que destaca el potencial de los agentes de IA para operar de forma autónoma en entornos hostiles.
El investigador de software Simon Willison advirtió que los agentes de IA crean un "trifecta letal" de riesgo: acceso a datos privados, exposición a contenido de internet no confiable y capacidad de comunicación externa. Los profesionales de la seguridad recomiendan restringir los agentes de IA a solo dos de estos tres dominios para mitigar el peligro. Sin embargo, muchos expertos en IA argumentan que el valor completo de los agentes proviene del acceso sin restricciones, lo que crea una tensión entre utilidad y seguridad.
"La mala noticia es que no hay una buena solución hasta hoy", dijo otra fuente cercana a un laboratorio de IA. "La buena noticia es que [los agentes de IA] aún no están en entornos de configuración de misión crítica como la bolsa de valores, el libro mayor del banco o el aeropuerto". Esta salvedad subraya los límites actuales de la implementación de IA en infraestructuras de alto riesgo, pero no disminuye la urgencia de la amenaza.
Potencial de uso defensivo
El ex investigador de Anthropic y Google DeepMind Stanislav Fort, ahora fundador de la plataforma de seguridad de IA AISLE, ofreció una visión más optimista. Cree que la IA podría eventualmente catalogar y remediar un "repositorio finito" de fallos de seguridad históricos. Hasta la fecha, los modelos de IA han descubierto miles de vulnerabilidades de día cero, debilidades desconocidas que han persistido en el software durante años. Fort señaló: "Estamos encontrando gradualmente menos y menos días cero, de los peores tipos que podemos imaginar". Si se cierran estas brechas, la tecnología podría cambiar de arma a escudo, bloqueando proactivamente las amenazas y elevando la línea de base de seguridad en general.
Por ahora, el equilibrio sigue siendo precario. La combinación de ciclos de ataque más rápidos, herramientas de IA como Mythos y la facilidad de automatizar exploits complejos fuerza a los defensores a reevaluar las prácticas de seguridad tradicionales. Las organizaciones pueden necesitar adoptar una gobernanza de IA más estricta, limitar los permisos de los agentes y invertir en herramientas de defensa mejoradas con IA para mantener el ritmo.
Informes adicionales de Kieran Smith en Londres.
This article was written with the assistance of AI.
News Factory SEO helps you automate news content for your site.