Pentágono pressionou empresas de IA antes dos ataques ao Irã — e isso é um péssimo sinal para o futuro da IA ética
Inteligência Artificial e poder militar nunca estiveram tão próximos — e tão perigosamente entrelaçados. Em março de 2026, enquanto os Estados Unidos e Israel preparavam ataques coordenados contra o Irã, uma batalha bem diferente acontecia nos bastidores de Washington. O Pentágono e a Anthropic, criadora do assistente Claude, entraram em um cabo de guerra sobre os limites do uso de IA em operações militares. A empresa queria garantias básicas: nada de vigilância contra cidadãos americanos e nada de armas autônomas sem supervisão humana. A resposta do governo Trump foi rápida e brutal — cortou todos os contratos federais com a Anthropic e chamou a empresa de radical e woke.
Horas depois, a OpenAI assumiu o lugar, fechando acordo com o Departamento de Defesa sem impor nenhuma restrição ética explícita. O episódio levanta uma pergunta que vai muito além da tecnologia em si: o que acontece quando o governo mais poderoso do planeta força empresas de IA a abandonar seus próprios princípios éticos? 🤔 Essa história envolve regulamentação esvaziada, autonomia de máquinas em campos de batalha e uma ética que parece cada vez mais descartável quando o assunto é guerra. Vamos entender o que rolou, por que isso importa e o que pode vir pela frente.
O cabo de guerra entre o Pentágono e a Anthropic
Para entender a gravidade do que aconteceu, é preciso olhar para o contexto completo. A Anthropic sempre se posicionou como uma empresa que coloca a segurança em primeiro lugar no desenvolvimento de Inteligência Artificial. Desde a sua fundação, a companhia estabeleceu políticas de uso aceitável bastante claras, incluindo a proibição explícita de aplicações que envolvessem armas autônomas letais e vigilância em massa sem autorização judicial. Quando o Pentágono bateu à porta da empresa para firmar contratos relacionados a operações militares no Oriente Médio, a Anthropic não disse não de cara — ela tentou negociar condições mínimas que preservassem seus valores fundadores.
Entre essas condições estavam a exigência de supervisão humana em qualquer processo de tomada de decisão letal e a garantia de que seus modelos Claude não seriam usados para espionar cidadãos americanos em território nacional. A Anthropic também destacou publicamente que os sistemas atuais de IA não são confiáveis o suficiente para operar armas totalmente autônomas, reforçando que sua posição não era meramente ideológica, mas também técnica.
O governo, no entanto, não estava disposto a aceitar meias medidas. A administração Trump interpretou essas condições como obstáculos ideológicos e não como salvaguardas técnicas legítimas. Na sexta-feira anterior aos ataques, o presidente Donald Trump publicou nas redes sociais que jamais permitiria que uma empresa radical e woke ditasse como o grande exército americano luta e vence guerras. O cancelamento de todos os contratos federais com a Anthropic veio acompanhado de uma campanha pública para desacreditar a empresa, criando um efeito cascata que pressionou outras companhias de tecnologia a reconsiderar qualquer postura que pudesse ser vista como resistência ao governo. O recado ficou cristalino: ou você colabora nos termos do Pentágono, ou fica de fora do jogo — e do dinheiro.
A entrada da OpenAI e o conceito de usos legais sem linhas éticas
O movimento mais revelador foi a velocidade com que a OpenAI preencheu o vácuo deixado pela Anthropic. Em questão de horas, a empresa de Sam Altman fechou um acordo com o Departamento de Defesa. A diferença central em relação à postura da Anthropic é que a OpenAI adotou o conceito de permitir todos os usos legais de suas ferramentas, sem especificar publicamente quais linhas éticas a empresa não estaria disposta a cruzar.
Isso não significa necessariamente que a OpenAI abriu mão de todos os seus princípios internos, mas a ausência de condições explícitas enviou um sinal preocupante para toda a indústria de Inteligência Artificial. A mensagem implícita é que as empresas que quiserem sobreviver financeiramente e manter acesso a contratos bilionários precisam ser flexíveis — e flexibilidade, nesse contexto, significa silêncio sobre ética e limites de uso. Do outro lado, a decisão já começou a gerar consequências para a própria OpenAI. Um movimento crescente de cancelamento do ChatGPT ganhou força entre consumidores que criticam a ausência de qualquer limitação ética no acordo militar.
Vale lembrar que a OpenAI não chegou a esse ponto do nada. Seu cofundador e presidente Greg Brockman doou pessoalmente 25 milhões de dólares a uma organização de apoio a Trump no ano anterior. Sam Altman também contribuiu com um milhão de dólares para o fundo de posse de Trump — embora tenha ressaltado publicamente que também fez doações a políticos democratas. Esses laços financeiros ajudam a explicar a fluidez com que a empresa se posicionou como substituta da Anthropic em um momento tão delicado.
O histórico de princípios éticos que parecia promissor
O que torna esse episódio ainda mais amargo é que não faz muito tempo, existia um consenso internacional bastante robusto sobre a necessidade de governar o uso militar de Inteligência Artificial. Em fevereiro de 2020, o próprio Departamento de Defesa dos Estados Unidos adotou princípios éticos para o uso de IA em toda a organização. Esses princípios exigiam que os sistemas fossem responsáveis, equitativos, rastreáveis, confiáveis e governáveis.
A OTAN seguiu pelo mesmo caminho em 2021, formulando princípios semelhantes para o uso de IA entre seus membros. O Reino Unido publicou sua própria estratégia de inteligência artificial para defesa em 2022, alinhada com a mesma filosofia de transparência e controle humano. Esses marcos não eram perfeitos, mas representavam um esforço genuíno de estabelecer regras do jogo antes que a tecnologia avançasse rápido demais para ser controlada.
Os Estados Unidos desempenham um papel único entre seus aliados internacionais na definição de normas globais sobre conduta militar. Quando Washington adotou esses princípios, enviou um sinal claro para países como Rússia, China, Brasil e Índia sobre como o uso militar de IA deveria ser governado. O abandono desses mesmos princípios agora envia um sinal igualmente claro — só que na direção oposta.
Autonomia de máquinas e o esvaziamento da regulamentação
O debate sobre autonomia em sistemas de Inteligência Artificial aplicados ao campo militar não é novo, mas ganhou uma urgência completamente diferente com esse episódio. Durante anos, especialistas em segurança e pesquisadores alertaram que a linha entre uma IA que auxilia decisões humanas e uma IA que toma decisões por conta própria é muito mais tênue do que parece. A preocupação central gira em torno dos chamados sistemas de armas letais autônomas — dispositivos e softwares capazes de escolher alvos e atacá-los sem intervenção humana.
Quando um drone analisa dados em tempo real, identifica um alvo e recomenda um ataque, o operador humano que pressiona o botão final está realmente tomando uma decisão independente ou apenas validando o que a máquina já decidiu? Essa pergunta fica ainda mais incômoda quando consideramos que, em cenários de combate real, a pressão por velocidade de resposta frequentemente empurra os sistemas para níveis cada vez maiores de autonomia. A remoção de empresas que insistiam em manter o ser humano genuinamente no controle do processo decisório só acelera esse caminho perigoso.
Do lado da regulamentação, o cenário é igualmente sombrio. A administração Trump já havia proibido os estados americanos de regulamentar a IA no ano anterior, alegando que qualquer regulamentação estadual ameaçava a inovação. Essa decisão eliminou uma das poucas camadas de proteção que ainda existiam no ecossistema regulatório dos Estados Unidos. Sem uma legislação robusta que defina claramente o que sistemas autônomos podem e não podem fazer em contextos de conflito armado, a responsabilidade recai inteiramente sobre as empresas — e como vimos, empresas que tentam exercer essa responsabilidade são punidas.
Organismos internacionais como a Cruz Vermelha vêm discutindo tratados sobre armas autônomas letais há quase uma década, mas as negociações avançam em ritmo glacial enquanto a tecnologia evolui em velocidade exponencial. O resultado é uma lacuna regulatória cada vez maior, onde sistemas cada vez mais capazes operam em um vácuo jurídico e moral.
A relação entre IA militar e o setor privado
Um ponto fundamental que muita gente não percebe é que a Inteligência Artificial militar depende quase inteiramente do setor privado. Os dados mais relevantes, o conhecimento técnico mais avançado e os profissionais mais qualificados estão em empresas como Anthropic, OpenAI e Palantir — não nos laboratórios governamentais. Essa dinâmica ficou evidente desde 2017, quando o Projeto Maven do Pentágono buscou acelerar o uso de aprendizado de máquina e integração de dados na inteligência militar americana, dependendo fortemente de parceiros comerciais do Vale do Silício.
O Conselho de Inovação em Defesa dos EUA reconheceu formalmente em 2019 que, no campo da IA, os dados-chave, o conhecimento e o pessoal estão todos no setor privado. Essa realidade permanece inalterada em 2026, o que significa que o governo precisa das empresas tanto quanto as empresas precisam dos contratos governamentais. A diferença é que o governo pode usar seu poder regulatório e financeiro como alavanca, enquanto as empresas têm muito menos margem de manobra quando decidem resistir.
Essa assimetria ficou escancarada com o caso da Anthropic. O Departamento de Defesa, sob o comando do secretário Pete Hegseth, foi além de simplesmente cancelar contratos — classificou a Anthropic como um risco à cadeia de suprimentos, uma designação rara que até então havia sido aplicada apenas a empresas estrangeiras. Na prática, isso significa que nenhum contratante, fornecedor ou parceiro que faça negócios com o exército americano pode ter qualquer atividade comercial com a Anthropic. A empresa anunciou que pretende contestar essa decisão na justiça, mas o estrago reputacional e econômico já está feito.
IA ética pressupõe normas democráticas
Existe uma dimensão desse debate que costuma passar despercebida: a ideia de que a Inteligência Artificial pode ser inerentemente ética depende de pressupostos democráticos que muita gente toma como garantidos. O conceito de transparência algorítmica, por exemplo — ser claro e honesto sobre as regras que um sistema usa para tomar decisões — parte do princípio de que as pessoas têm o direito de saber como essas tecnologias funcionam, porque em uma democracia o poder pertence ao povo.
Em um regime autocrático, no entanto, não importa quão transparentes os algoritmos sejam. Não existe a premissa de que os civis têm participação nas decisões ou merecem saber o que o governo está fazendo com essas ferramentas. A discussão livre e pública é frequentemente considerada uma característica fundamental das democracias liberais. O consenso pode ser valorizado, mas o desacordo construtivo e até mesmo o conflito de ideias são sinais de saúde democrática.
Nessa perspectiva, o desejo da Anthropic de ter discussões genuínas com o governo sobre linhas vermelhas éticas representava a prática democrática em ação. A empresa sinalizou tanto a vontade de comunicação racional quanto o valor do desacordo construtivo. Quando o governo respondeu não com argumentos, mas com punição econômica e estigmatização pública, o que se perdeu não foi apenas um contrato comercial — foi um pedaço do tecido democrático que sustenta a ideia de IA ética em primeiro lugar.
A ironia final: os ataques usaram a tecnologia da Anthropic
Talvez o detalhe mais irônico — e perturbador — de toda essa história seja o que aconteceu poucas horas depois da denúncia pública de Trump contra a Anthropic. Quando os ataques americanos ao Irã foram efetivamente lançados, reportagens indicaram que o planejamento dessas operações havia utilizado justamente o software da Anthropic. Ou seja, a mesma tecnologia que o governo disse ser inaceitável por conta das condições éticas impostas pela empresa já estava integrada às operações militares que estavam em andamento. 😶
Essa contradição revela muito sobre a natureza real da disputa. O problema nunca foi a qualidade ou a confiabilidade da tecnologia da Anthropic. O problema foi a empresa ter a audácia de querer impor condições sobre como essa tecnologia seria utilizada. A mensagem para todo o ecossistema de IA ficou gravada em letras maiúsculas: a tecnologia é bem-vinda, os limites éticos não.
O efeito dominó global
O efeito dominó desse esvaziamento regulatório vai muito além das fronteiras americanas. Quando a maior potência militar do planeta sinaliza que ética e regulamentação são obstáculos e não proteções, outros países se sentem legitimados a seguir o mesmo caminho. China, Rússia e outras nações com programas avançados de IA militar observam atentamente os movimentos de Washington, e a normalização do uso irrestrito de Inteligência Artificial em operações de defesa cria uma corrida armamentista tecnológica onde os limites éticos se tornam desvantagem competitiva.
Esse é talvez o legado mais perigoso do episódio entre o Pentágono e a Anthropic: não apenas o que aconteceu, mas o precedente que foi estabelecido para tudo que virá depois. A ordem internacional baseada em regras, que já vinha mostrando sinais de fragilidade, perde mais um pilar de sustentação quando o país que historicamente liderou a construção dessas regras decide que elas não se aplicam mais.
O que está em jogo para o futuro da IA
Para além do campo de batalha, esse confronto entre governo e empresas de tecnologia revela uma tensão estrutural que vai definir os próximos anos do desenvolvimento de Inteligência Artificial. As maiores empresas do setor dependem de contratos governamentais para financiar pesquisas cada vez mais caras — treinar um modelo de linguagem de última geração já custa centenas de milhões de dólares, e esse valor só tende a crescer. Essa dependência financeira cria uma assimetria de poder brutal, onde o governo pode essencialmente ditar as regras do jogo simplesmente controlando o fluxo de dinheiro.
A Anthropic descobriu isso da maneira mais dura possível, e é difícil imaginar que outras empresas não estejam recalculando suas próprias linhas vermelhas neste exato momento. A ética em IA, que já enfrentava resistência por ser vista como um freio à inovação, agora enfrenta um adversário ainda mais formidável: o pragmatismo econômico sob pressão política direta. Figuras influentes do Vale do Silício como o bilionário Marc Andreessen, autor do Manifesto Tecno-Otimista, e Joe Lonsdale, cofundador da Palantir, celebraram a reeleição de Trump como uma libertação das amarras regulatórias. A frase de Andreessen comparando a vitória de Trump a uma bota sendo retirada da garganta da indústria de tecnologia captura perfeitamente o sentimento predominante entre uma parcela poderosa do setor.
Há também uma dimensão que afeta diretamente a confiança pública nessas tecnologias. Quando pessoas comuns descobrem que os mesmos modelos de Inteligência Artificial que usam para escrever e-mails, organizar suas rotinas e aprender coisas novas estão sendo empregados em operações militares sem salvaguardas transparentes, a relação de confiança com essas ferramentas inevitavelmente se deteriora. Isso importa porque a adoção saudável de IA na sociedade depende de um contrato social mínimo — as pessoas precisam sentir que existe algum nível de controle, supervisão e responsabilidade sobre como esses sistemas operam. Sem isso, o risco não é apenas tecnológico ou militar, mas também social: uma erosão gradual da confiança que pode comprometer os benefícios reais que a Inteligência Artificial oferece em áreas como saúde, educação e ciência.
O momento pede uma reflexão honesta sobre o tipo de futuro que estamos construindo. A tecnologia de IA em si não é boa nem má — ela reflete as intenções e os limites impostos por quem a controla. A questão central que o episódio entre o Pentágono, a Anthropic e a OpenAI coloca na mesa é simples de formular, mas extremamente difícil de responder: quem define esses limites? Se a resposta for apenas quem tem mais poder e mais dinheiro, sem espaço para regulamentação independente e ética genuína, então estamos caminhando para um cenário onde a autonomia das máquinas cresce na mesma proporção em que a autonomia humana sobre elas diminui. E isso, convenhamos, deveria preocupar todo mundo — não apenas quem trabalha com tecnologia. 🧠
