O Grupo de Inteligência de Ameaças da Google confirmou que uma organização de hackers criminosos utilizou um modelo de inteligência artificial para descobrir uma vulnerabilidade de dia zero em uma ferramenta de administração de sistema web-based de código aberto popular. A falha, se explorada, teria permitido que os atacantes contornassem a autenticação de dois fatores - frequentemente a última barreira que protege as contas corporativas. O grupo pretendia lançar uma campanha de exploração coordenada e em massa, visando várias organizações simultaneamente.
A equipe de segurança da Google detectou a atividade precocemente, notificou os desenvolvedores da ferramenta e facilitou um patch antes que a exploração pudesse ser implantada em larga escala. A empresa se recusou a nomear o grupo de hackers, o software específico ou o modelo de IA utilizado, mas enfatizou que o modelo não era o Gemini da Google.
O incidente marca um ponto de inflexão para o cibercrime, transformando advertências de longa data sobre ataques aprimorados por IA em realidade. A Google disse que grupos ligados à China e à Coreia do Norte mostraram "interesse significativo" em usar ferramentas de IA, como o OpenClaw, para descoberta de vulnerabilidades, sublinhando uma tendência mais ampla de atores afiliados ao Estado adotarem técnicas de IA sofisticadas.
Pesquisadores documentaram ameaças semelhantes impulsionadas por IA em outros setores. Cientistas da Georgia Tech recentemente descobriram o VillainNet, uma porta de acesso oculta que se incorpora à IA de carros autodirigíveis e ativa com uma taxa de sucesso de 99% quando ativada. Uma equipe de pesquisa coreana demonstrou que modelos de IA podem ser reengenhados remotamente usando uma pequena antena que penetra paredes, não exigindo acesso direto ao sistema. Além disso, um grupo de usuários do Discord conseguiu contornar os controles de acesso e alcançar o modelo Mythos restrito da Anthropic por meio de um ambiente de fornecedor terceirizado.
Em resposta a esses riscos emergentes, uma disciplina nascente chamada teste de penetração de IA está ganhando tração. Equipes de segurança estão começando a testar modelos de linguagem com entradas adversárias para medir como eles se comportam em condições hostis. Embora ainda em sua infância, o teste de penetração de IA visa identificar e mitigar as maneiras pelas quais atores mal-intencionados podem armazenar IA gerativa.
A ação rápida da Google impediu o que poderia ter sido uma violação em larga escala, afetando inúmeras empresas. Ao alertar os mantenedores do software e coordenar um patch rápido, a empresa demonstrou a crescente importância da inteligência de ameaças em tempo real em uma era em que a IA pode amplificar tanto as capacidades cibernéticas defensivas quanto ofensivas.
Dieser Artikel wurde mit Unterstützung von KI verfasst.
News Factory SEO hilft Ihnen, Nachrichteninhalte für Ihre Website zu automatisieren.