Militar dos EUA usou Claude nos ataques ao Irã mesmo após veto de Trump
O exército dos Estados Unidos utilizou o Claude, modelo de inteligência artificial da Anthropic, durante os ataques massivos ao Irã realizados em conjunto com Israel, mesmo depois de Donald Trump ter ordenado, poucas horas antes, o rompimento total de vínculos com a empresa. A informação foi publicada pelo Wall Street Journal e pelo Axios, e lança luz sobre um dilema que vai muito além de política ou tecnologia: o que acontece quando uma IA já está tão entrelaçada nas operações militares que nem uma ordem presidencial consegue tirá-la de cena de uma hora pra outra?
Esse episódio não é um caso isolado. Ele é o desdobramento de uma crise que começou semanas antes e que envolve disputas ideológicas, contratos bilionários e uma pergunta que ainda não tem resposta fácil — até que ponto governos podem depender de empresas privadas para conduzir operações de guerra?
Como o Claude foi usado nas operações militares contra o Irã
A relação entre o Claude e o Pentágono não começou da noite pro dia. O modelo de inteligência artificial da Anthropic já vinha sendo incorporado a diversos sistemas de defesa dos Estados Unidos há meses, com contratos firmados e equipes treinadas para operar a ferramenta em cenários de alta complexidade. De acordo com as reportagens, o comando militar americano utilizou o Claude para fins de inteligência, além de auxiliar na seleção de alvos e na condução de simulações de campo de batalha.
Na prática, o Claude funcionava como um assistente avançado para análise de dados. Militares e analistas do Pentágono alimentavam o sistema com informações sobre movimentação de tropas, interceptações de comunicação e imagens de satélite, e a inteligência artificial ajudava a cruzar tudo isso numa velocidade impossível para equipes humanas trabalhando sozinhas. A IA processava informações de múltiplas fontes em tempo real, ajudando analistas a identificar padrões e tomar decisões mais rápidas durante a operação conjunta com Israel.
É importante destacar que não se tratava de uma IA tomando decisões autônomas sobre alvos ou disparos. O Claude acelerava drasticamente o ciclo de análise e planejamento, mas as decisões finais continuavam sendo humanas. Mesmo assim, o nível de integração era profundo o suficiente para que desconectar a ferramenta dos sistemas no meio de uma operação ativa representasse um risco operacional real e potencialmente perigoso.
Quando os bombardeios ao Irã começaram no sábado, as equipes do Pentágono já estavam usando o Claude como parte central do fluxo de trabalho. A inteligência artificial estava embarcada em processos que envolviam desde a preparação das missões até o monitoramento em tempo real. Trocar de ferramenta ou simplesmente desligar o sistema naquele momento seria como pedir pra um cirurgião trocar de instrumento no meio de um procedimento crítico — tecnicamente possível, mas extremamente arriscado.
O veto de Trump e a origem do conflito com a Anthropic
Na sexta-feira, poucas horas antes do início dos ataques, Trump ordenou que todas as agências federais parassem de usar o Claude imediatamente. Em publicação no Truth Social, o presidente americano classificou a Anthropic como uma empresa de IA da esquerda radical, dirigida por pessoas que não fazem ideia do que o mundo real se trata.
Mas o que provocou essa ruptura tão abrupta? A briga teve origem no uso do Claude durante a operação militar para capturar o presidente da Venezuela, Nicolás Maduro, em janeiro. A Anthropic se opôs publicamente, apontando que seus termos de uso proíbem que o Claude seja aplicado para fins violentos, desenvolvimento de armas ou vigilância. Essa posição da empresa caiu muito mal na Casa Branca e no Pentágono.
Desde então, as relações entre Trump, o Pentágono e a Anthropic se deterioraram de forma acelerada. O secretário de Defesa, Pete Hegseth, publicou um extenso texto na plataforma X na sexta-feira, no qual acusou a Anthropic de arrogância e traição. Hegseth foi enfático ao afirmar que os combatentes da América nunca serão reféns dos caprichos ideológicos das grandes empresas de tecnologia. O secretário exigiu acesso total e irrestrito a todos os modelos de IA da Anthropic para qualquer finalidade legal.
No entanto, Hegseth também reconheceu a dificuldade de desconectar rapidamente os sistemas militares da ferramenta, dado o quão amplamente ela já era utilizada. Ele declarou que a Anthropic continuaria fornecendo seus serviços por um período máximo de seis meses, permitindo uma transição adequada para o que chamou de um serviço melhor e mais patriótico.
O conflito entre ordem política e realidade operacional
Na prática, o Pentágono se viu em uma situação extremamente delicada. De um lado, havia uma ordem presidencial clara para interromper o uso da inteligência artificial da Anthropic. Do outro, havia uma operação militar em andamento contra o Irã que dependia, em parte significativa, de sistemas onde o Claude já estava integrado.
Fontes ouvidas pelas publicações americanas relataram que oficiais de alto escalão optaram por manter o uso da ferramenta durante a operação, entendendo que o risco de desligá-la no meio do processo era maior do que o risco de descumprir temporariamente a diretiva de Trump. Essa decisão, por si só, levanta um debate gigantesco sobre a cadeia de comando e sobre o que acontece quando a tecnologia se torna tão essencial que nem uma ordem presidencial consegue removê-la instantaneamente.
O episódio também expõe uma fragilidade que poucos estavam discutindo até agora: a dependência crescente do aparato militar americano em relação a ferramentas de inteligência artificial fornecidas por empresas privadas. Quando o governo contrata uma empresa como a Anthropic e integra o Claude profundamente em suas operações, criar uma alternativa viável não é algo que se faz em horas ou dias. Existem contratos, treinamentos, adaptações de sistemas e uma curva de aprendizado que tornam a transição muito mais complexa do que simplesmente assinar um decreto.
A situação com o Irã demonstrou, na prática e de forma bastante dramática, que a inteligência artificial já ocupa um papel estratégico nas forças armadas que vai além do que muitos imaginavam. Não estamos mais falando de projetos-piloto ou experimentos em laboratório — estamos falando de uma tecnologia que já está no centro das operações de guerra.
OpenAI entra em cena para preencher o vazio
Com o rompimento entre Trump e a Anthropic, a rival OpenAI rapidamente se posicionou para ocupar o espaço deixado pelo Claude. Sam Altman, CEO da OpenAI, anunciou que chegou a um acordo com o Pentágono para uso das ferramentas da empresa, incluindo o ChatGPT, na rede classificada do Departamento de Defesa.
Essa movimentação da OpenAI é significativa por diversos motivos. Primeiro, porque a empresa historicamente mantinha políticas restritivas sobre uso militar de suas ferramentas, mas vem flexibilizando essa posição nos últimos meses. Segundo, porque demonstra como o mercado de inteligência artificial voltado para defesa se tornou uma arena competitiva onde contratos bilionários estão em jogo. A saída da Anthropic — se de fato se concretizar após o período de transição de seis meses — representaria uma redistribuição massiva de recursos e influência no setor.
Além da OpenAI, outras empresas como a Palantir, que já tem uma relação consolidada com o Pentágono, e startups focadas em aplicações militares de IA também estão de olho nessa oportunidade. O cenário geopolítico torna tudo ainda mais urgente. As tensões com o Irã não devem diminuir tão cedo, e a necessidade de ferramentas avançadas de inteligência artificial para operações de defesa só tende a crescer.
Isso significa que qualquer empresa que queira assumir o lugar do Claude precisa não apenas ter uma tecnologia competitiva, mas também demonstrar capacidade de integração rápida com a infraestrutura militar existente. Não basta ter o melhor modelo de linguagem do mercado — é preciso provar que ele funciona em condições de operação real e sob pressão.
O dilema ético da inteligência artificial em operações de guerra
A posição da Anthropic nessa história merece atenção. A empresa construiu sua reputação justamente em torno de princípios de segurança e uso responsável da IA. Os termos de uso do Claude proíbem explicitamente aplicações para fins violentos, desenvolvimento de armas e vigilância. Quando a empresa descobriu que sua ferramenta estava sendo utilizada na operação na Venezuela, ela se manifestou publicamente contra — e isso desencadeou toda a crise que levou ao rompimento com o governo Trump.
Esse posicionamento coloca a Anthropic em uma posição complicada. Por um lado, a empresa está sendo coerente com seus próprios princípios e com o compromisso de desenvolver IA de forma responsável. Por outro, está abrindo mão de contratos enormes com o governo americano e cedendo esse mercado para concorrentes que podem não ter as mesmas preocupações éticas.
A pergunta que fica é: quem define os limites do uso de inteligência artificial em contextos militares? A empresa que desenvolve a tecnologia? O governo que a contrata? Ou deveria haver uma regulamentação mais ampla que estabeleça essas fronteiras de forma clara? O caso do Claude nos ataques ao Irã mostra que essa lacuna regulatória já está gerando consequências reais e potencialmente perigosas.
O que isso significa para o futuro da IA em operações militares
O caso do Claude no Pentágono durante os ataques ao Irã vai ser estudado por muito tempo como um exemplo do que acontece quando decisões políticas e realidade tecnológica entram em rota de colisão. A inteligência artificial deixou de ser uma ferramenta auxiliar e se tornou um componente estrutural das operações militares modernas.
Alguns pontos ficam claros depois desse episódio:
- Desligar uma IA no meio de uma guerra não é tão simples quanto apertar um botão. A integração dessas ferramentas nos sistemas militares cria dependências que levam meses para serem desfeitas de forma segura.
- A dependência de empresas privadas para operações de defesa traz riscos estratégicos. Quando uma empresa pode discordar do uso que o governo faz da sua tecnologia e ameaçar cortá-la, isso cria uma vulnerabilidade que não existia antes.
- O mercado de IA militar está se tornando cada vez mais disputado e politizado. A forma como empresas se posicionam em relação ao uso de suas ferramentas para fins bélicos pode definir quem ganha ou perde contratos bilionários.
- A falta de regulamentação clara sobre IA em contextos militares é uma bomba-relógio. Sem regras bem definidas, decisões de alto impacto acabam sendo tomadas no calor do momento, com base em interesses políticos ou comerciais.
Independentemente de quem ocupar o espaço da Anthropic no Pentágono, uma coisa ficou evidente: a relação entre inteligência artificial e poder militar entrou em uma nova fase, onde as fronteiras entre tecnologia, política e ética estão cada vez mais borradas. O episódio envolvendo Trump, o Claude e o Irã é apenas o começo de um debate que vai definir como essas forças se equilibram nas próximas décadas — e que vai exigir respostas muito mais sofisticadas do que simplesmente cancelar um contrato pelo Truth Social. 🤖
