Claude segue ativo nas operações militares mesmo após ordem de banimento
A inteligência artificial Claude, desenvolvida pela Anthropic, está sendo usada de forma ativa pelo Pentágono nas operações militares dos Estados Unidos contra o Irã. A informação veio de duas fontes com conhecimento direto sobre o uso de IA pelo exército americano em entrevista à CBS News. Segundo os relatos, a ferramenta foi empregada durante os ataques realizados no último fim de semana e permanece em funcionamento nas operações em andamento. O caso levanta uma série de questões sobre o papel que modelos de linguagem de grande porte desempenham hoje dentro da infraestrutura militar mais avançada do planeta.
O que torna essa situação ainda mais surpreendente é o timing de tudo isso. O uso do Claude pelo Pentágono acontece mesmo depois de o governo Trump ter anunciado uma proibição federal da tecnologia da Anthropic, dando às agências governamentais um prazo de seis meses para abandonar completamente a plataforma. Em outras palavras, a mesma tecnologia que está sendo oficialmente banida das estruturas do governo federal continua rodando em operações militares reais contra o Irã. É uma contradição que expõe de forma muito clara a complexidade da relação entre o setor de defesa e as empresas de inteligência artificial do setor privado.
A notícia sobre o uso do Claude nas operações contra o Irã foi reportada inicialmente pelo Wall Street Journal, e depois confirmada pela CBS News com suas próprias fontes. Até o momento, o Pentágono não detalhou publicamente de que maneira exata a ferramenta de IA está sendo empregada no contexto do conflito. Essa falta de transparência contribui para o clima de incerteza que envolve toda a situação, especialmente quando se considera que o uso acontece em paralelo a uma disputa pública entre o governo americano e a empresa criadora da tecnologia.
Essa revelação coloca em evidência algo que muitos analistas já suspeitavam: a dependência crescente do aparato militar americano em relação a ferramentas de IA comerciais. Não estamos falando de um experimento ou de um piloto de testes. Estamos falando de uma aplicação em cenário real de conflito, onde decisões operacionais estão sendo, de alguma forma, apoiadas por um modelo de linguagem criado inicialmente para uso civil. E isso muda completamente a forma como a gente entende o alcance e a influência dessas tecnologias no mundo atual.
O conflito entre Anthropic e o Departamento de Defesa
A raiz dessa tensão começou quando a Anthropic tentou estabelecer limites claros para o uso militar do Claude. A empresa incluiu em suas políticas de uso aceitável uma série de restrições que iam direto ao ponto: proibição de vigilância em massa contra cidadãos americanos, veto ao uso em sistemas de armas totalmente autônomas e outras salvaguardas pensadas para garantir que a tecnologia não fosse empregada de formas que a empresa considerasse eticamente problemáticas. Para a Anthropic, que desde sua fundação se posiciona como uma empresa focada em segurança de IA, essas restrições eram um reflexo direto dos seus princípios. Mas para o Pentágono, a história era bem diferente.
A resposta do Departamento de Defesa foi objetiva e sem meias palavras. O Pentágono exigiu acesso irrestrito ao modelo para todos os fins que fossem considerados legais dentro da legislação americana. O argumento central do Departamento de Defesa era direto: já existem leis que proíbem a vigilância em massa de cidadãos americanos, e as políticas internas do próprio Pentágono já restringem o uso de armas totalmente autônomas. Na visão dos militares, as preocupações da Anthropic eram, portanto, redundantes e não materiais. Do ponto de vista militar, a ideia de que uma empresa privada pudesse ditar os termos de como uma ferramenta seria usada em operações de segurança nacional não era aceitável.
O impasse estava criado, e a partir desse momento a situação escalou muito rápido. O secretário de Defesa Pete Hegseth entrou em cena e classificou a Anthropic como um risco na cadeia de suprimentos, uma terminologia pesada que normalmente é reservada para fornecedores considerados pouco confiáveis ou potencialmente hostis aos interesses americanos. Essa classificação carrega um peso institucional enorme e sinaliza para todo o ecossistema de defesa que fazer negócios com a Anthropic pode ser problemático.
Emil Michael, o diretor de tecnologia do Pentágono, defendeu a posição do Departamento de Defesa em entrevista à CBS News. Segundo ele, em algum nível, é preciso confiar que os militares farão a coisa certa. Michael também detalhou que o Departamento de Defesa utiliza o Claude para sintetizar documentos, tornar a logística mais eficiente e otimizar cadeias de suprimentos, entre outras tarefas. Essas aplicações podem parecer burocráticas à primeira vista, mas em um cenário de operações militares ativas, a capacidade de processar informações rapidamente e organizar logística de forma eficiente pode ter impacto direto no desenrolar das ações no terreno.
A posição da Anthropic sobre linhas vermelhas
Do outro lado da disputa, o CEO da Anthropic, Dario Amodei, explicou à CBS News que a empresa buscou traçar linhas vermelhas no uso governamental da sua tecnologia. Segundo Amodei, a Anthropic acredita que cruzar essas linhas seria contrário aos valores americanos, e a empresa quis se posicionar em defesa desses mesmos valores. Ele foi além e afirmou que discordar do governo é a coisa mais americana que existe, e que a Anthropic se considera patriota em tudo o que fez ao longo desse processo.
Essa declaração é interessante porque reposiciona a narrativa. Enquanto o governo enquadra a Anthropic como um obstáculo ou até uma ameaça, a empresa se coloca como defensora de princípios fundamentais da democracia americana. É um embate de narrativas que vai muito além de uma simples negociação comercial. Estamos falando de uma disputa sobre quem tem a legitimidade para definir os limites do uso de inteligência artificial em contextos de defesa e segurança nacional.
Com esse enquadramento, o caminho para a ordem executiva estava pavimentado. O presidente Trump assinou o documento que bane oficialmente a tecnologia da Anthropic das agências federais, estabelecendo o prazo de seis meses para a transição completa. No entanto, a realidade no terreno parece contar uma história diferente daquela que o papel oficial sugere. O Claude continua operando nas ações militares contra o Irã, o que indica que desligar um sistema de inteligência artificial já integrado a operações em andamento não é algo que se faz da noite para o dia, independentemente do que diga uma ordem executiva.
A questão de Israel e o uso de IA em conflitos
Um ponto que permanece em aberto é se o exército israelense também está utilizando o Claude neste conflito. A CBS News entrou em contato com um porta-voz das Forças de Defesa de Israel, mas não obteve resposta até o momento da publicação. O que se sabe é que Israel já utiliza inteligência artificial em operações militares de forma ativa. As forças israelenses contam com seu próprio sistema de identificação de alvos, conhecido como Lavender, que foi empregado durante a guerra em Gaza.
A existência de sistemas como o Lavender e o uso do Claude pelo Pentágono mostram que a aplicação de IA em cenários de guerra não é um fenômeno isolado. Diferentes países e forças militares estão incorporando essas tecnologias de maneiras variadas, cada uma com seus próprios protocolos e limites — ou, em alguns casos, com a ausência deles. Esse cenário reforça a urgência de discussões internacionais sobre regulamentação e governança de inteligência artificial em contextos militares.
O que isso revela sobre o futuro da IA em operações militares
Essa situação toda nos diz muito sobre como a inteligência artificial se tornou um componente essencial das engrenagens militares modernas. O fato de o Pentágono não conseguir simplesmente desligar o Claude e seguir em frente mostra que a integração dessas ferramentas vai muito além de um simples software auxiliar. Segundo o site especializado em segurança nacional Defense One, citando múltiplas fontes familiarizadas com a disputa entre o Departamento de Defesa e a Anthropic, pode levar três meses ou mais para que o Pentágono substitua as capacidades do Claude por outra plataforma de IA.
Quando um modelo de IA é incorporado a fluxos de trabalho operacionais em cenários de conflito real, ele passa a fazer parte da infraestrutura crítica. Removê-lo exige planejamento, tempo e, principalmente, uma alternativa viável que entregue capacidades equivalentes. E esse é um detalhe que muita gente subestima quando debate o tema de regulação de IA no contexto de defesa e segurança nacional. Não basta assinar um decreto — é preciso ter um plano B pronto para rodar.
Outro ponto que merece destaque é o precedente que esse caso cria para toda a indústria de inteligência artificial. A Anthropic tentou manter seus princípios de segurança e uso responsável, e a consequência foi ser rotulada como um risco e ter sua tecnologia oficialmente banida do governo federal. Isso envia uma mensagem clara para outras empresas do setor: se você tentar impor limites éticos ao uso da sua tecnologia pelo governo, pode acabar enfrentando retaliações. É uma dinâmica preocupante que pode acabar desencorajando outras companhias de adotar posturas semelhantes no futuro, o que teria implicações diretas para a governança e a segurança de sistemas de IA usados em contextos de alto risco.
O caso do uso do Claude nas operações contra o Irã também levanta questões práticas sobre transparência e accountability. Se um modelo de inteligência artificial está apoiando decisões em cenários de conflito armado, quem é responsável quando algo sai errado? A empresa que criou o modelo? O Pentágono que o está utilizando? Os operadores que interagem com a ferramenta no dia a dia? Essas perguntas não têm respostas simples, e o fato de que o sistema continua rodando mesmo durante um processo de banimento oficial torna tudo ainda mais nebuloso. O que fica claro é que a relação entre governos e empresas de IA está entrando em um território completamente novo, onde as regras ainda estão sendo escritas em tempo real — e, em alguns casos, enquanto os mísseis já estão voando 🚀
Uma dependência difícil de desfazer
No fundo, o que essa história mostra é que a inteligência artificial já cruzou uma linha sem volta no contexto militar. O Claude não é apenas uma curiosidade tecnológica sendo testada em um laboratório do Pentágono. Ele é uma peça funcional dentro de operações que estão acontecendo agora, em um dos cenários geopolíticos mais tensos do momento. A Anthropic se vê em uma posição paradoxal: sua tecnologia é considerada boa o suficiente para apoiar operações de guerra, mas a empresa em si é tratada como um problema por querer estabelecer limites ao uso dessa mesma tecnologia.
Para quem acompanha o mercado de inteligência artificial, esse episódio funciona como um lembrete poderoso de que o desenvolvimento de IA não acontece em um vácuo. As decisões de design, as políticas de uso e os princípios éticos de uma empresa podem colidir frontalmente com os interesses de Estados soberanos — e quando isso acontece, a balança de poder nem sempre pende para o lado da tecnologia. O caso Anthropic versus Pentágono pode muito bem se tornar um marco na história da regulação de IA, definindo como governos e empresas vão negociar os limites do uso dessa tecnologia nos próximos anos.
Por enquanto, o Claude segue ativo. O Irã continua sendo alvo de operações militares apoiadas por inteligência artificial, e a ordem de banimento segue oficialmente em vigor, mesmo que na prática ela ainda não tenha surtido efeito completo. É o tipo de situação que parece um roteiro de ficção científica, mas que está acontecendo de verdade, com consequências reais para todos os envolvidos. E se tem uma coisa que esse episódio deixa evidente é que o debate sobre IA em contextos militares não pode mais ser tratado como algo distante ou hipotético. Ele já chegou — e está mais complexo do que qualquer modelo de linguagem conseguiria prever.
