El Grupo de Inteligencia de Amenazas de Google confirmó que una organización de piratas informáticos utilizó un modelo de inteligencia artificial para descubrir una vulnerabilidad de día cero en una herramienta de administración de sistemas web de código abierto popular. La falla, si se hubiera explotado, habría permitido a los atacantes evadir la autenticación de dos factores, a menudo la última barrera que protege las cuentas corporativas. El grupo tenía la intención de lanzar una campaña de explotación coordinada y masiva que apuntara a numerosas organizaciones simultáneamente.

El equipo de seguridad de Google detectó la actividad temprano, notificó a los desarrolladores de la herramienta y facilitó una actualización antes de que la explotación pudiera ser implementada a gran escala. La empresa se negó a nombrar al grupo de piratas informáticos, el software específico o el modelo de IA utilizado, pero enfatizó que el modelo no era el Gemini de Google.

El incidente marca un punto de inflexión para el cibercrimen, convirtiendo las advertencias largamente establecidas sobre ataques mejorados con IA en realidad. Google dijo que los grupos vinculados a China y Corea del Norte han mostrado "interés significativo" en utilizar herramientas de IA como OpenClaw para la descubierta de vulnerabilidades, subrayando una tendencia más amplia de actores afiliados al estado que adoptan técnicas de IA sofisticadas.

Los investigadores han documentado amenazas impulsadas por IA similares en otros sectores. Los científicos de Georgia Tech descubrieron recientemente VillainNet, una puerta trasera oculta que se incorpora en la IA de los automóviles autónomos y se activa con una tasa de éxito del 99 % cuando se activa. Un equipo de investigación coreano demostró que los modelos de IA pueden ser reversados a distancia utilizando una pequeña antena que penetra las paredes, sin requerir acceso directo al sistema. Además, un grupo de usuarios de Discord logró evadir los controles de acceso y llegar al modelo Mythos restringido de Anthropic a través de un entorno de proveedor de terceros.

En respuesta a estos riesgos emergentes, una disciplina naciente llamada pruebas de penetración de IA está ganando tracción. Los equipos de seguridad están comenzando a someter a prueba los modelos de lenguaje alimentándolos con entradas adversarias para medir cómo se comportan en condiciones hostiles. Aunque aún está en su infancia, las pruebas de penetración de IA tienen como objetivo identificar y mitigar las formas en que los actores maliciosos podrían aprovechar la IA generativa.

La acción rápida de Google evitó lo que podría haber sido una brecha a gran escala que afectara a innumerables empresas. Al alertar a los mantenedores del software y coordinar una actualización rápida, la empresa demostró la creciente importancia de la inteligencia de amenazas en tiempo real en una era en la que la IA puede amplificar tanto las capacidades cibernéticas defensivas como ofensivas.

Este artículo fue escrito con la asistencia de IA.
News Factory SEO te ayuda a automatizar contenido de noticias para tu sitio.