O Bloomberg relata que um fórum online privado conseguiu obter a ferramenta de segurança de IA da Anthropic, Mythos, pouco após sua divulgação pública. O grupo, cujos membros se reúnem em um canal do Discord dedicado a modelos de IA não lançados, aproveitou o acesso concedido a um contratante terceirizado que presta serviços para a Anthropic. Ao explorar essa posição, os participantes do fórum foram capazes de executar o Mythos e compartilhar capturas de tela e uma demonstração ao vivo com o Bloomberg.

O porta-voz da Anthropic confirmou que a empresa está "investigando um relatório que alega acesso não autorizado ao Claude Mythos Preview por meio de um de nossos ambientes de fornecedores terceirizados". A empresa acrescentou que, até o momento, não encontrou evidências de que a atividade alegada tenha impactado os sistemas ou dados da Anthropic.

De acordo com a fonte do Bloomberg, os usuários não autorizados adivinharam a localização online do modelo com base nas convenções de nomenclatura da Anthropic para outros modelos. Sua motivação parece ser curiosidade, e não sabotagem; uma fonte disse ao Bloomberg que o grupo está "interessado em brincar com novos modelos, e não em causar estragos com eles". No entanto, a capacidade de executar o Mythos fora do pool de fornecedores pretendido levanta bandeiras vermelhas para a Anthropic, que comercializou a ferramenta como um ativo defensivo para a segurança corporativa.

O Mythos foi lançado sob o Projeto Glasswing da Anthropic para um conjunto limitado de parceiros, incluindo a Apple, para evitar o mau uso por atores ruins. A IA é divulgada como um poderoso aliado para as equipes de segurança de empresas, capaz de detectar e responder a ameaças em tempo real. A Anthropic alertou que, nas mãos erradas, as mesmas capacidades poderiam ser armadas contra as próprias organizações que visa proteger.

A violação destaca os desafios de segurança de ferramentas de IA que dependem de ecossistemas terceirizados. Embora os processos de verificação da Anthropic provavelmente tenham incluído salvaguardas contratuais, o incidente mostra que um único fornecedor comprometido pode abrir uma porta de acesso a tecnologia sofisticada. Especialistas em segurança observam que, à medida que os modelos de IA se tornam mais integrais à infraestrutura crítica, os riscos da cadeia de suprimentos exigirão uma vigilância mais rigorosa.

A Anthropic não divulgou se suspenderá o acesso do contratante comprometido ou emitirá um recall mais amplo do Mythos. As próximas etapas da empresa provavelmente envolverão uma auditoria minuciosa de suas práticas de gerenciamento de fornecedores e possivelmente controles mais rigorosos sobre a distribuição de modelos.

Por enquanto, o incidente permanece sob investigação, e a Anthropic não relatou nenhum dano concreto ou perda de dados decorrente do uso não autorizado. O episódio serve como uma história de advertência para as empresas que correm para implantar soluções de segurança de IA avançadas sem considerar plenamente as vulnerabilidades introduzidas por parceiros externos.

Este artículo fue escrito con la asistencia de IA.
News Factory SEO te ayuda a automatizar contenido de noticias para tu sitio.