A Google anunciou uma parceria classificada com o Departamento de Defesa dos EUA que concede ao Pentágono acesso irrestrito aos modelos de inteligência artificial da empresa. O acordo, descrito pelo The Information como permitindo o uso para "qualquer propósito governamental legítimo", marca a última adição a uma lista crescente de fornecedores de IA que fornecem capacidades avançadas ao exército.

Os funcionários da Google reagiram fortemente. Na segunda-feira, mais de 560 engenheiros e funcionários assinaram uma carta aberta endereçada ao CEO Sundar Pichai, pedindo que ele recusasse qualquer trabalho de IA militar classificado. Na terça-feira, a mesma empresa selou um acordo com o qual os signatários haviam pedido que recusasse, criando um contraste marcante que provavelmente dominará as reuniões internas e declarações públicas.

O contrato difere marcadamente do acordo que a Anthropic fechou com o Pentágono no início do ano. O acordo da Anthropic incluiu proibições explícitas sobre vigilância em massa e armas autônomas sem supervisão humana. Essas restrições levaram a administração Trump a incluir a Anthropic na lista negra de riscos à cadeia de suprimentos de segurança nacional em fevereiro de 2026. O acordo da Google, por outro lado, não tem tais limites éticos, alinhando-se com o modelo mais amplo e menos restrito favorecido pela administração.

A OpenAI e a xAI de Elon Musk já assinaram contratos classificados semelhantes. A OpenAI renegociou seus termos para reter algumas linhas vermelhas sobre vigilância doméstica, enquanto a xAI relatou ter entrado no acordo sem restrições notáveis. A Google agora se junta a um quarteto de empresas de IA — OpenAI, xAI, Google e anteriormente Anthropic — capazes de fornecer ao Pentágono ferramentas de IA de ponta para missões classificadas.

O timing do acordo amplifica a tensão interna. A carta dos funcionários foi circulada na manhã de segunda-feira; o contrato classificado foi relatado como tendo sido assinado no dia seguinte. Analistas esperam que o episódio seja discutido em reuniões futuras de Sundar Pichai, briefings de imprensa e possivelmente até mesmo em testemunhos legais no julgamento de alto perfil de Musk-Altman, onde questões sobre ética corporativa de IA podem surgir.

A Google não confirmou publicamente os termos específicos do engajamento com o Pentágono. A linguagem "qualquer propósito governamental legítimo" vem de uma única fonte anônima citada pelo The Information. Sem comentário oficial, a posição da empresa permanece incerta, deixando funcionários e observadores externos para interpretar as implicações.

O debate mais amplo opõe a demanda do governo por IA irrestrita aos compromissos corporativos com o desenvolvimento ético de IA. Desde a controvérsia do Projeto Maven em 2018, muitas empresas de tecnologia prometeram evitar a armação de IA sem supervisão humana. A inclusão da Anthropic na lista negra demonstrou o custo de manter esses princípios, enquanto a OpenAI e agora a Google parecem dispostas a atender às necessidades amplos do Pentágono.

Se a decisão da Google demonstra ser temporária ou permanente dependerá de mudanças políticas e pressão interna dos signatários da carta aberta. Por enquanto, o acordo expande o pool de fornecedores de IA do Pentágono, concedendo-lhe acesso a alguns dos modelos mais poderosos do mercado, enquanto deixa as salvaguardas éticas em grande parte indefinidas.

Dieser Artikel wurde mit Unterstützung von KI verfasst.
News Factory SEO hilft Ihnen, Nachrichteninhalte für Ihre Website zu automatisieren.