Siga o Times Brasil - Licenciado Exclusivo CNBC no
Pentágono monta máquina de guerra com gigantes da IA, mas não diz quem aperta o botão
Publicado 04/05/2026 • 14:00 | Atualizado há 1 hora
GameStop faz oferta de US$ 56 bilhões pelo eBay para rivalizar com a Amazon
Premiação da Copa do Mundo se aproxima de US$ 900 milhões; veja quem recebe quanto
Promotora dos EUA pode desistir de recurso em investigação contra Powell
Venda de elétricos usados dispara nos EUA; veja como o custo se compara ao de carros a gasolina
Promotoria revela novas evidências em ataque contra Trump
Publicado 04/05/2026 • 14:00 | Atualizado há 1 hora
KEY POINTS
Pentágono fecha contratos com OpenAI, Google e Microsoft para uso de IA em redes militares classificadas IL6 e IL7
No dia 9 de dezembro de 2025, uma quinta-feira, o secretário de Defesa (ele prefere ser chamado de secretário da Guerra) Pete Hegseth gravou um vídeo e o publicou no X. Atrás dele, corredores do Pentágono. Na frente, uma câmera e uma frase que ele enunciou com a satisfação de quem sabe que está dizendo algo que vai durar: "O futuro da guerra americana está aqui, e se escreve com IA."
Naquele dia, o Departamento de Defesa lançava o GenAI.mil, uma plataforma de inteligência artificial acessível por cartão de identificação militar, disponível para três milhões de funcionários, militares, contratados e civis da estrutura de defesa americana. Em uma semana, quinhentos mil usuários. Em um mês, um milhão. Hoje, segundo dados do próprio Pentágono, 1,3 milhão de pessoas utilizam a plataforma ativamente, e mais de cem mil agentes de IA já foram construídos dentro dela por usuários que nunca escreveram uma linha de código.
Na última sexta-feira (2), o mesmo departamento anunciou que fechou acordos com sete das maiores empresas de tecnologia do mundo, dando a elas acesso às redes classificadas mais sensíveis do governo americano: os níveis IL6 e IL7, reservados para dados críticos à segurança nacional, com proteção física, controles de acesso rígidos e auditorias permanentes.
As empresas são Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection e SpaceX. Todas aceitaram uma cláusula que diz, sem rodeios, que suas tecnologias poderão ser usadas para qualquer fim considerado legal pelo Pentágono.
O que esses acordos significam na prática exige um pequeno esforço de imaginação. Pense num oficial sentado diante de monitores mostrando feeds de vigilância ao vivo, dados de posicionamento de tropas, registros de comunicação interceptada e relatórios de inteligência em vários idiomas chegando ao mesmo tempo.
Esse oficial sempre existiu. A diferença é que agora, ao lado dele ou incorporado ao sistema que ele usa, há um modelo de linguagem treinado com centenas de bilhões de parâmetros, capaz de sintetizar tudo isso em segundos, identificar padrões, sugerir alvos e recomendar ações. O Pentágono chama isso de "decision superiority". A ideia é reduzir o tempo entre a percepção de uma ameaça e a resposta a ela.
Helen Toner, pesquisadora da Universidade Georgetown e ex-conselheira da OpenAI, descreveu bem o que está em jogo. Muita parte da guerra moderna acontece com pessoas em centros de comando na frente de monitores, tomando decisões complexas sobre situações confusas e rápidas.
A IA ajuda a resumir informações e analisar feeds de vigilância. Só que as perguntas sobre o nível adequado de envolvimento humano, sobre o risco aceitável, sobre como treinar os operadores para não confiar demais na máquina, essas questões ainda estão sendo respondidas enquanto os contratos já estão assinados.
O CTO do Pentágono, Emil Michael, comentou uma ausência notada por todos: quando perceberam que um parceiro não queria trabalhar da forma que queriam, foram buscar múltiplos provedores. Arquitetura sem dependência de fornecedor único. Modelos de linguagem tratados como commodities intercambiáveis. A infraestrutura de guerra americana não vai mais apostar em um único nome.
Quem acompanha esta coluna desde o começo conhece a Anthropic de perto. Esteve aqui no episódio do Conway, no Claude Code, no Mythos, no Opus 4.7. É a empresa que construiu sua identidade em torno de segurança, que publicou documentos técnicos sobre os riscos da própria tecnologia que desenvolve, que tem Dario Amodei como CEO e porta-voz de uma ideia de que a IA precisa de freios antes de acelerar.
No início deste ano, quando o Pentágono pressionou a Anthropic para assinar um contrato sem restrições de uso, a empresa recusou. Queria garantias de que seus modelos não seriam usados em armas totalmente autônomas nem em vigilância doméstica em massa. Hegseth deu um ultimato. A Anthropic não cedeu. O secretário de Defesa então classificou a empresa como "risco à cadeia de suprimentos", uma designação normalmente reservada para ameaças de sabotagem por adversários estrangeiros.
A Anthropic entrou na Justiça, ganhou uma liminar em março e o processo segue para julgamento previsto em setembro.
Na sexta, enquanto sete empresas assinavam seus acordos, a Anthropic não estava na lista, mas os modelos Claude ainda funcionam em algumas agências governamentais por força de contratos anteriores.
O custo de dizer não, nesse mercado, em nenhum momento anterior da história havia sido tão concreto.
Uma pergunta ainda está sem resposta. Quando um modelo de linguagem está no fluxo de decisão que leva a um ataque, quem é responsável pelo que acontece depois? O oficial que aprovou a recomendação? A empresa que treinou o modelo? O contratante que o integrou à rede classificada?
O documento do Pentágono diz que pelo menos um dos acordos inclui linguagem exigindo supervisão humana em missões autônomas ou semiautônomas, e que o uso deve ser consistente com direitos constitucionais. Mas a formulação é vaga o suficiente para caber muita coisa.
Naquele vídeo de dezembro, Hegseth resumiu a filosofia com a clareza de quem não está interessado em nuances: não há segundo lugar na corrida global pela dominância em IA. A GenAI.mil existe para garantir que os americanos ganhem esse primeiro lugar.
Sete empresas do Vale do Silício ouviram isso, deram de ombro e assinaram. Uma ouviu e foi à Justiça.
O mundo em que modelos de linguagem fazem parte da infraestrutura militar de uma superpotência já não é o futuro. Mas quando a máquina errar, e ela vai errar, quem vai atender o telefone?

Mais lidas
1
Genial tem R$ 176 milhões bloqueados em investigação que liga banco ao esquema do PCC
2
Qual é a ligação entre Genial, Reag e Banco Master?
3
Oncoclínicas tem nova virada: fundo próximo à Latache conquista maioria no conselho
4
Acordo Mercosul-UE entra em vigor e pode impulsionar exportações brasileiras em US$ 1 bilhão nos próximos 12 meses
5
“Boa sorte, meu amigo”: os bastidores das últimas horas da Spirit Airlines