Como a monetização no X transformou contas hackeadas em máquinas de desinformação
A monetização dentro do X se tornou o motor de um esquema sofisticado que conecta contas hackeadas, vídeos de guerra fabricados por inteligência artificial e uma avalanche de desinformação direcionada a milhões de usuários. O caso veio à tona na última quarta-feira, quando Nikita Bier, chefe de desenvolvimento de produto da plataforma, detalhou publicamente uma operação coordenada que envolvia pelo menos 31 perfis comprometidos. Todos esses perfis foram hackeados e renomeados no dia 27 de fevereiro para variações do nome Iran War Monitor, numa tentativa clara de capitalizar o interesse global pelo conflito envolvendo Irã, Estados Unidos e Israel. Por trás de toda essa estrutura estava uma única pessoa operando a partir do Paquistão, e o objetivo não tinha nada de ideológico — era puramente financeiro, voltado a lucrar com o programa de compartilhamento de receita para criadores do X.
Os perfis publicavam clipes gerados por inteligência artificial como se fossem registros reais de ataques militares, bombardeios e movimentações de tropas. Tudo era pensado para acumular visualizações em larga escala e, consequentemente, faturar com o programa de receita da plataforma. Esse modelo de monetização baseado em engajamento cria um incentivo direto para a produção de conteúdo sensacionalista e falso, especialmente em momentos de tensão geopolítica real, quando as pessoas estão mais vulneráveis e ávidas por informações. O resultado é um ciclo vicioso em que a plataforma paga por atenção, e a atenção é conquistada por meio de mentiras bem embaladas.
Bier afirmou que a equipe do X está ficando cada vez mais rápida em detectar esse tipo de operação e também trabalhando para eliminar os incentivos que a tornam viável. Mas esse episódio escancara uma fragilidade estrutural que vai muito além de um caso isolado. Quando o dinheiro flui na direção de quem consegue mais cliques, o sistema inteiro passa a premiar quem mente melhor e mais rápido. E a inteligência artificial generativa tornou esse processo absurdamente barato e escalável, permitindo que uma única pessoa em qualquer lugar do mundo consiga operar dezenas de contas simultaneamente com conteúdo visualmente convincente.
O papel da inteligência artificial na fabricação de conteúdo de guerra
A inteligência artificial generativa evoluiu a um ponto em que produzir vídeos realistas de cenários de guerra deixou de exigir equipes de produção, equipamentos caros ou conhecimento técnico avançado. Ferramentas acessíveis conseguem gerar imagens e clipes que simulam explosões, movimentações militares e destruição urbana com um nível de detalhe que engana até observadores mais atentos. No caso revelado por Bier, os vídeos publicados pelas contas hackeadas tinham exatamente esse perfil — pareciam registros documentais legítimos, mas eram inteiramente fabricados. Isso representa um salto qualitativo na capacidade de produção de desinformação, porque o conteúdo visual sempre carregou um peso de credibilidade maior do que textos escritos. Quando alguém vê um vídeo de um suposto ataque aéreo, a tendência natural é acreditar que aquilo aconteceu de verdade.
O problema se agrava quando esse tipo de material é distribuído em contextos de conflito real. A tensão entre Irã, Estados Unidos e Israel é genuína — com o Irã lançando ataques com mísseis contra bases americanas no Bahrein enquanto Israel bombardeava Beirute —, e as pessoas procuram ativamente por informações sobre o que está acontecendo. Nesse cenário, conteúdos fabricados por inteligência artificial se misturam com registros reais, criando uma confusão informacional que dificulta qualquer tentativa de compreensão dos fatos. A desinformação não precisa convencer todo mundo — basta semear dúvida suficiente para que as pessoas percam a capacidade de distinguir o que é real do que é falso. E quando isso acontece em escala, com dezenas de perfis publicando simultaneamente, o efeito é multiplicado de forma exponencial.
Vale destacar que o operador por trás do esquema não precisou desenvolver nenhuma tecnologia proprietária ou hackear sistemas complexos de defesa. Ele simplesmente combinou ferramentas de inteligência artificial disponíveis no mercado com contas hackeadas que já tinham base de seguidores consolidada. Essa combinação permitiu que o conteúdo falso alcançasse audiências massivas desde o primeiro momento da publicação, sem a necessidade de construir credibilidade do zero. É um modelo de operação que pode ser replicado por qualquer pessoa com motivação financeira e acesso básico à internet, o que torna o problema ainda mais preocupante.
Não era só o Iran War Monitor — os perfis IDF Girl também faziam parte do esquema
Um detalhe importante revelado por Bier é que a operação não se limitava aos perfis que se passavam por monitores do conflito iraniano. A mesma pessoa também estava por trás de múltiplos perfis chamados IDF Girl, que simulavam ser mulheres ligadas às Forças de Defesa de Israel. Esses perfis igualmente eram operados a partir do Paquistão e seguiam a mesma lógica de explorar a curiosidade e o engajamento emocional do público em torno do conflito no Oriente Médio.
Essa diversificação de personas mostra que o operador entendia muito bem como funcionam os algoritmos de distribuição de conteúdo no X. Ao criar perfis com identidades diferentes mas todos girando em torno do mesmo tema quente, ele conseguia maximizar o alcance total da operação. Cada perfil capturava um segmento diferente da audiência interessada no conflito — uns atraíam quem buscava informações do lado iraniano, outros atraíam quem acompanhava a perspectiva israelense. Era uma rede de desinformação pensada estrategicamente para cobrir vários ângulos do mesmo assunto e, assim, multiplicar os ganhos com o programa de monetização.
Esse padrão de comportamento levanta questões sérias sobre a verificação de identidade dentro da plataforma. Apesar de o X exigir verificação de identidade para participar do programa de receita, o fato de que uma única pessoa conseguiu operar 31 contas hackeadas simultaneamente sem ser detectada de imediato mostra lacunas evidentes no processo.
Monetização como incentivo para desinformação em larga escala
O programa de monetização do X, conhecido como Creator Revenue Sharing, foi criado com a premissa de recompensar criadores de conteúdo que geram engajamento na plataforma. Para participar, os criadores precisam assinar o X Premium, ter pelo menos 500 seguidores Premium, gerar cerca de cinco milhões de impressões ao longo de três meses e completar a verificação de identidade. Em teoria, é uma forma de valorizar quem produz material relevante e interessante. Na prática, porém, o sistema não diferencia de forma eficaz conteúdo legítimo de conteúdo fabricado para manipular emoções e acumular visualizações.
Quando o pagamento é proporcional ao número de impressões, o incentivo econômico aponta diretamente para a criação de material que gere o máximo de reações possível — e poucos temas provocam tanta reação quanto guerra e conflitos armados. O esquema descoberto no X é a prova mais recente de que esse modelo de remuneração pode ser explorado de maneira sistemática por atores mal-intencionados.
A lógica é simples e eficiente do ponto de vista de quem opera o esquema. Primeiro, obtém-se acesso a contas hackeadas que já possuem milhares de seguidores, eliminando a etapa mais difícil de qualquer estratégia de crescimento em redes sociais. Depois, renomeia-se esses perfis para algo que soe como uma fonte de notícias confiável sobre um tema quente, como o conflito no Oriente Médio. Em seguida, publica-se conteúdo gerado por inteligência artificial que parece real o suficiente para viralizar. As visualizações se acumulam rapidamente, e o programa de monetização transforma essa atenção em dinheiro. Todo o processo pode ser executado por uma única pessoa, como ficou comprovado neste caso, e o retorno financeiro é praticamente imediato.
Um fator que amplifica esse problema é o câmbio. Como os pagamentos do programa de receita são feitos em dólares americanos, usuários em países onde a moeda local tem menor poder de compra encontram um incentivo adicional para produzir conteúdo viral e sensacionalista. Isso explica em parte por que operações desse tipo têm origem frequente em países como Paquistão e Bangladesh, onde o valor do dólar representa uma recompensa financeira proporcionalmente muito maior.
A resposta do X e as novas regras contra conteúdo de guerra gerado por IA
Diante da gravidade do caso, o X anunciou regras mais rígidas para combater esse tipo de abuso. A partir de agora, usuários que publicarem vídeos de conflitos armados gerados por inteligência artificial sem indicar claramente que o material foi produzido com IA serão suspensos do programa de monetização por 90 dias. Em caso de reincidência, a remoção do programa será permanente. Essa medida tenta atacar diretamente o incentivo financeiro que alimenta essas operações, mas ainda depende da capacidade da plataforma de detectar o conteúdo fabricado antes que ele viralize.
A equipe de Bier também destacou que os sistemas de detecção estão sendo aprimorados para identificar padrões como renomeação simultânea de múltiplas contas, publicação coordenada de conteúdo semelhante e sinais técnicos que indicam uso de ferramentas de geração de vídeo por IA. Ainda assim, a corrida entre quem produz e quem detecta continua desigual. As ferramentas de inteligência artificial generativa evoluem com uma velocidade impressionante, e cada nova versão torna mais difícil distinguir conteúdo real de conteúdo fabricado.
O X também passou a investir em transparência de contas. Em novembro de 2025, a plataforma introduziu o recurso About This Account, que revela a localização geográfica real de perfis que publicam conteúdo político. Esse recurso já ajudou a identificar que diversas contas que publicavam conteúdo político sobre a Índia estavam na verdade operando de fora do país. Bier ainda apontou o caso de uma conta que se apresentava como jornalista em Gaza, mas que na realidade estava compartilhando material inteiramente gerado por inteligência artificial. Esses exemplos reforçam que o problema é sistêmico e não se limita a um único operador ou a um único conflito.
O cenário mais amplo da desinformação em tempos de conflito
A preocupação com desinformação no X durante períodos de conflito não é nova, mas ganhou uma dimensão diferente com a acessibilidade das ferramentas de inteligência artificial. Enquanto os ataques entre EUA, Israel e Irã se desenrolam — incluindo ataques com mísseis a bases americanas no Bahrein, bombardeios a Beirute e tensões que afetaram até navios indianos no Golfo Pérsico —, a proliferação de conteúdo falso torna o ambiente informacional ainda mais caótico e perigoso.
Esse tipo de operação não surge no vácuo. Ela se alimenta de um ecossistema onde a demanda por informações em tempo real é altíssima, os mecanismos de verificação são lentos e os incentivos financeiros recompensam quem publica primeiro, não quem publica com precisão. É a tempestade perfeita para que fábricas de desinformação prosperem, e o caso dos 31 perfis do Iran War Monitor é apenas a ponta visível de um problema muito maior.
O que isso significa para o futuro das redes sociais
Esse caso funciona como um alerta sobre a direção que as grandes plataformas estão tomando ao priorizar métricas de engajamento como base para seus programas de monetização. A combinação de inteligência artificial acessível, contas hackeadas com audiências prontas e sistemas de pagamento por visualização cria um ecossistema onde a desinformação se torna literalmente lucrativa. Não estamos falando de um problema teórico ou de um risco futuro — é algo que já está acontecendo agora, com consequências reais na forma como milhões de pessoas entendem conflitos de guerra e crises internacionais.
As plataformas precisam repensar como seus sistemas de recompensa financeira interagem com a moderação de conteúdo. Modelos que pagam exclusivamente por volume de visualizações, sem considerar a veracidade ou a qualidade do material publicado, estão essencialmente subsidiando fábricas de mentiras. A detecção de conteúdo gerado por inteligência artificial precisa evoluir na mesma velocidade em que as ferramentas de geração avançam, e os processos de verificação de identidade nas contas devem se tornar mais robustos para dificultar a operação em massa de perfis comprometidos.
O episódio também reforça a importância da alfabetização digital por parte dos próprios usuários. Em um ambiente onde qualquer vídeo pode ser fabricado em minutos por uma inteligência artificial, o ceticismo saudável se tornou uma habilidade essencial de sobrevivência informacional. Verificar fontes, desconfiar de conteúdos excessivamente dramáticos e buscar confirmação em veículos jornalísticos estabelecidos são práticas que ganham ainda mais relevância quando a desinformação é produzida em escala industrial e com qualidade visual cada vez mais convincente.
O caso do Iran War Monitor não será o último desse tipo — mas pode servir como referência para entendermos a complexidade do problema que temos pela frente. A pergunta que fica é: as plataformas vão conseguir adaptar seus modelos de negócio rápido o suficiente para evitar que a próxima crise geopolítica seja ainda mais poluída por conteúdo falso? 🧠
