Um Site de Notícias Locais no Canadá Era Operado por Inteligência Artificial e Publicava Informações Falsas
Imagine abrir o seu feed de notícias e encontrar uma matéria bombástica sobre um político da sua cidade que supostamente renunciou ao cargo após uma série de tuítes polêmicos ressurgirem na internet. A história tem todos os elementos de um furo jornalístico legítimo: detalhes sobre o conteúdo das postagens, uma declaração de arrependimento do político e a promessa do partido de seguir uma nova direção. Agora imagine descobrir que absolutamente nada daquilo aconteceu. O político nunca renunciou, nunca ocupou o cargo mencionado na matéria e nunca escreveu nada parecido com o que o site descreveu. Foi exatamente isso que aconteceu com o Surrey Speak, um site baseado em Surrey, na Colúmbia Britânica, Canadá, que se apresentava como um veículo de notícias locais legítimo, mas que na verdade era operado quase inteiramente por inteligência artificial.
O caso veio à tona graças a uma investigação conduzida pela Investigative Journalism Foundation (IJF), uma organização canadense dedicada ao jornalismo investigativo, que revelou um esquema sofisticado de produção automatizada de conteúdo falso disfarçado de cobertura jornalística comunitária. O Surrey Speak contava com mais de 10 mil seguidores no Facebook, publicava dezenas de matérias por dia e apresentava uma aparência visual e editorial convincente o suficiente para enganar milhares de pessoas na região metropolitana de Vancouver.
A Falsa Matéria Sobre William Azaroff
O exemplo mais emblemático da fabricação de conteúdo pelo Surrey Speak envolveu o político canadense William Azaroff. O site publicou uma matéria afirmando que Azaroff havia renunciado ao cargo de diretor executivo de um partido municipal após a ressurgência de tuítes polêmicos envolvendo questões de raça, identidade indígena e ideologia política. A matéria relatava que Azaroff teria emitido uma declaração de arrependimento e que seu partido havia prometido traçar um novo rumo.
O problema é que nada disso era verdade. Azaroff nunca ocupou o cargo de diretor executivo do partido OneCity, portanto não poderia ter renunciado a ele. Na realidade, ele havia acabado de ser indicado como candidato a prefeito pelo partido em uma eleição que se aproximava. E quanto aos supostos tuítes polêmicos? Azaroff, descrito como um homem tranquilo que dirige uma empresa de desenvolvimento habitacional sem fins lucrativos, afirmou que jamais escreveu qualquer coisa parecida com o que o Surrey Speak descreveu.
A menor parcela de verificação mostraria que não era verdade, disse Azaroff à IJF. Sua equipe chegou a considerar a possibilidade de que a matéria fosse um ataque politicamente motivado, mas mesmo essa hipótese parecia improvável. Segundo ele, se um oponente tivesse feito isso, não cometeria erros tão óbvios.
Dimitris Dimitriadis, diretor de pesquisa e desenvolvimento da empresa NewsGuard, sediada em Nova York, ofereceu uma explicação mais provável. Ele suspeita que a inteligência artificial por trás do site detectou que o nome de Azaroff estava em alta nas buscas por conta de sua indicação como candidato a prefeito e, a partir disso, fabricou uma história completamente falsa para capitalizar sobre o tráfego de pesquisa. Se o tema está em tendência e gerando bastante SEO, esses sites usam o assunto para criar conteúdo sobre ele, explicou Dimitriadis. E esse conteúdo pode ser completamente sem sentido ou até falso.
Jornalistas Fictícios e Produção Industrial de Conteúdo
Um dos aspectos mais reveladores da investigação foi a descoberta de que os supostos jornalistas do Surrey Speak simplesmente não existiam. O site listava autores com nomes como John N., Lucas, Riley Anderson e Ellie Jones, mas nenhum deles correspondia a uma pessoa real identificável. Não havia informações de contato para esses redatores, não existiam perfis profissionais verificáveis e não havia qualquer indicação de que seres humanos estivessem de fato escrevendo ou revisando o conteúdo publicado.
E a produtividade desses autores fictícios era sobre-humana, literalmente. John N., o suposto autor da matéria falsa sobre Azaroff, publicou outras seis matérias no mesmo dia. Ele e os demais escritores fantasmas publicavam uma grade completa de matérias diariamente, muitas delas baseadas em eventos noticiosos reais ocorridos na região metropolitana de Vancouver. O site não informava em nenhum momento que utilizava inteligência artificial para criar suas matérias. Foi somente depois que a IJF começou a fazer perguntas que o Surrey Speak passou a rotular algumas imagens como geradas por IA.
Esse padrão é típico dos mais de 2.600 sites de notícias gerados por IA que Dimitriadis catalogou ao longo dos últimos três anos por meio de seu trabalho na NewsGuard. Segundo ele, esses sites geralmente funcionam raspando conteúdo de fontes jornalísticas confiáveis e produzindo resumos automatizados. Os artigos resultantes tendem a ser genéricos, formulaicos e vagos, com poucas citações diretas, referências específicas ou créditos aos veículos de comunicação que originalmente apuraram as informações.
Imagens Fabricadas de Vítimas Reais de Crimes
Talvez o aspecto mais perturbador da operação do Surrey Speak seja a utilização de imagens geradas por inteligência artificial baseadas em vítimas reais de crimes. Uma análise do código-fonte do site revelou que pelo menos parte das imagens publicadas aparentava ter sido criada pelo ChatGPT.
Um caso particularmente grave envolveu a cobertura de um roubo violento ocorrido em New Westminster, na Colúmbia Britânica. O Surrey Speak publicou uma matéria sobre o incidente acompanhada de uma imagem mostrando uma mulher idosa lutando contra um agressor vestindo um moletom cinza. O roubo realmente aconteceu, conforme confirmado por fontes oficiais. Porém, Suki Sadhre, filho da vítima real, informou à IJF que a mulher retratada na imagem do Surrey Speak não era sua mãe. A comparação entre um quadro do vídeo real do roubo e a imagem publicada pelo site evidenciava diferenças claras, confirmando a natureza artificial da foto.
Outro caso envolveu a cobertura da condenação de Everton Downey, um homem da Colúmbia Britânica condenado pelo assassinato de sua namorada de 25 anos, Melissa Blimkie, em 2025. O Surrey Speak publicou uma foto gerada por IA de Blimkie. A IJF verificou a autenticidade da imagem por meio de duas ferramentas separadas de detecção de IA, e Dimitriadis realizou uma verificação adicional usando o serviço Hive, utilizado pela NewsGuard. As três análises confirmaram que a foto era gerada por inteligência artificial. Um membro da família de Blimkie contatado pela IJF classificou o uso da imagem como preocupante.
Em um caso mais cômico, porém igualmente revelador, uma matéria sobre o orçamento da Colúmbia Britânica foi acompanhada por uma imagem que incluía uma ilustração imprecisa de uma nota de mil dólares canadenses, uma denominação extremamente rara que deixou de ser moeda de curso legal há mais de cinco anos.
Erros Factuais em Outras Matérias
A matéria sobre Azaroff estava longe de ser o único exemplo de erro factual grave. Uma matéria recente assinada por John N. afirmava falsamente que trabalhadores sindicalizados da Amazon em um armazém em Delta, na Colúmbia Britânica, haviam conquistado um aumento salarial significativo por meio de negociação coletiva.
Na realidade, esses trabalhadores nunca assinaram um acordo coletivo. Eles de fato receberam um aumento, mas somente porque seu sindicato reclamou com sucesso a um tribunal que a Amazon os havia injustamente excluído de um reajuste salarial que já havia sido concedido a outros trabalhadores não sindicalizados. A diferença entre as duas versões é enorme e tem implicações diretas sobre como o público entende as relações trabalhistas na região.
As Conexões com a ADGTech e a Rede por Trás do Site
O Surrey Speak não identificava seus proprietários ou operadores. Um número de telefone e um e-mail listados no site não responderam às consultas da IJF. Mas a investigação encontrou evidências que parecem vincular o site à ADGTech Solutions Inc. e a seu CEO, Anuj Sayal.
Uma versão anterior do site do Surrey Speak listava informações de contato que incluíam a caixa postal canadense geral da ADGTech. Também incluía um número de telefone listado pela ADGTech. E o site ainda listava um endereço oficial no centro de Vancouver que também era utilizado pela ADGTech. Quando o Surrey Speak alterou suas informações de contato para um número diferente, esse novo número era utilizado pela ADGScribe, um projeto da própria ADGTech.
O site estava listado como projeto de uma empresa misteriosa chamada Network 247, que se descrevia como a rede de influência digital de crescimento mais rápido do Canadá e afirmava alcançar milhões de pessoas na Colúmbia Britânica mensalmente por meio de páginas de mídia social chamadas I Love Vancouver e I Love Surrey. A Network 247 utilizava o mesmo endereço físico do Surrey Speak e anteriormente informava em seu site que era alimentada pela ADGTech.
A IJF também telefonou para Pankaj Sayal, listado como diretor da ADGTech na Colúmbia Britânica junto com Anuj Sayal. Pankaj Sayal confirmou que estava familiarizado com o Surrey Speak e disse por telefone que Anuj é quem cuida disso.
A ADGTech afirma no LinkedIn que emprega mais de 200 pessoas e recebeu apoio do VentureLabs da Universidade Simon Fraser, descrito como o principal acelerador de tecnologia de Vancouver. O endereço físico listado pela ADGTech e pelo Surrey Speak era, na verdade, um espaço de coworking operado pelo SFU VentureLabs no centro de Vancouver. Quando a IJF visitou o local, uma recepcionista informou que a ADGTech não alugava de fato aquele espaço e que nem o Surrey Speak nem a Network 247 eram afiliados ao VentureLabs.
Apesar de todas essas conexões aparentes, Vivek Kumar, que se descreve no LinkedIn como chefe de desenvolvimento empresarial e do setor público da ADGTech em Nova Delhi, na Índia, afirmou à IJF que sua empresa não opera, gerencia ou exerce controle editorial sobre o Surrey Speak. Kumar não respondeu a perguntas de acompanhamento sobre os numerosos vínculos aparentes entre sua empresa e o site. A IJF contatou Anuj Sayal diversas vezes por e-mail e telefonemas, mas não obteve resposta.
Em um perfil publicado em 2025 no site do VentureLabs, Sayal declarou que a ADGTech havia começado como uma empresa de marketing e agora estava focada em oferecer insights detalhados para empresas que buscam crescer online por meio de IA. E acrescentou algo que soa especialmente irônico diante das descobertas da investigação: Na ADGTech, priorizamos a IA ética em todos os nossos produtos.
O Modelo de Negócio por Trás das Fazendas de Conteúdo de IA
O jornalismo não é conhecido como uma indústria lucrativa. Mas com custo operacional praticamente zero, sites de notícias gerados por IA ainda conseguem gerar receita com publicidade online, desde que obtenham visualizações de página suficientes. Dimitriadis explica a lógica de forma direta: quanto mais artigos você produz, basicamente você só precisa que um deles viralize. Não precisa que todos viralizem. E se você conseguir um artigo viral que gere muitas visualizações e impressões de página, você está no caminho de algo autossustentável e talvez até lucrativo.
O Surrey Speak não exibia publicidade em sua página no momento da investigação, mas listava um e-mail de marketing no site, indicando que estava buscando anunciantes. A Network 247, por sua vez, também listava um segundo projeto chamado Maple Newswire, cujo domínio de site também estava conectado à ADGTech. Anuj Sayal e a ADGTech publicaram recentemente no LinkedIn um anúncio de emprego para a MaplePulse Network, com um link para o Maple Newswire, que era anunciado como a plataforma de influência digital e engajamento cívico de crescimento mais rápido do Canadá, utilizando ferramentas proprietárias baseadas em IA para ajudar marcas e figuras públicas a se tornarem tendência entre comunidades.
As Consequências para o Jornalismo e para a Confiança Pública
Angela Misri, professora associada de jornalismo na Universidade Metropolitana de Toronto, classificou o conteúdo produzido por sites como o Surrey Speak de AI slop, um termo que podemos traduzir livremente como lixo de IA. Segundo ela, esses sites estão tornando ainda mais difícil para as pessoas separar fato de ficção e, no processo, estão corroendo a confiança já frágil que o público deposita na mídia.
As pessoas não entendem que notícia não é a mesma coisa que simplesmente conteúdo. E esses são apenas fazendas de conteúdo de lixo, afirmou Misri. Isso está competindo diretamente com as redações pela atenção do nosso suposto público. Vamos ver muito mais disso. Lixo de IA gera mais lixo de IA.
Essa última observação de Misri aponta para um dos riscos mais preocupantes de longo prazo. Uma vez que uma informação falsa está na internet, ela pode ser absorvida e reutilizada por outro motor de IA, que a tratará como se fosse um dado legítimo, sem detectar o erro. Seja de onde tiraram a informação, da Reuters ou do Facebook, eles estão tratando tudo da mesma forma, alertou Misri.
O próprio Azaroff expressou preocupação de que a matéria falsa publicada sobre ele pudesse aparecer em buscas alimentadas por IA em mecanismos como o Google. Me incomoda porque é tão obviamente lixo de IA ou simplesmente desinformação intencional. O momento pareceu muito suspeito, disse ele.
O Surrey Speak removeu a matéria sobre Azaroff de seu site em 23 de fevereiro, dez dias após a publicação original. Também removeu as fotos geradas por IA de Melissa Blimkie e da mãe de Sadhre depois que a IJF questionou sobre elas. O site não publicou nenhum aviso de retratação nem apresentou razão para a remoção das postagens.
Um Problema Global em Escala Crescente
Pesquisadores afirmam que o Surrey Speak é apenas um entre milhares de sites de notícias gerados por IA surgindo no Canadá e no mundo todo. Dimitriadis, que catalogou mais de 2.600 desses sites nos últimos três anos, disse estar especialmente preocupado com o crescimento dessa tendência ao longo do último ano. Ele argumenta que, ao competir com veículos de notícias reais por receita publicitária limitada, esses sites vão apertar ainda mais o cerco financeiro sobre publicações jornalísticas legítimas.
Parte do desafio, para mim, é tentar descobrir como impedir que esses sites manipulem a indústria publicitária e enganem marcas reais fazendo-as pensar que este é um lugar legítimo para seus anúncios estarem, afirmou Dimitriadis.
Para Misri, o risco é ainda mais profundo e filosófico. À medida que o conteúdo gerado por IA ocupa cada vez mais espaço na internet, ela teme que os motores de busca e assistentes de IA consumam menos jornalismo real e comecem a se alimentar do conteúdo uns dos outros. O resultado seria um oceano de lixo que se afasta cada vez mais da realidade factual.
A verdade está se tornando minoria na internet. E essa é a parte assustadora, concluiu Misri. 😬
O Que Esse Caso Nos Ensina Sobre Consumo de Informação
O caso do Surrey Speak é um lembrete contundente de que a aparência de profissionalismo não garante a veracidade de um conteúdo. Sites com layout limpo, linguagem jornalística e publicação frequente podem ser nada mais do que operações automatizadas de fabricação de conteúdo. A investigação da IJF mostrou que, por trás de uma fachada de mídia local comprometida com pessoas reais, questões reais e mudanças reais, conforme o próprio slogan do site no Facebook, havia um sistema que publicava mentiras sobre pessoas reais, fabricava imagens de vítimas de crimes e não demonstrava qualquer compromisso com a verdade factual.
A inteligência artificial é uma ferramenta poderosa que está transformando inúmeros setores, incluindo o próprio jornalismo. Redações sérias ao redor do mundo estão explorando formas éticas e transparentes de utilizar IA para auxiliar em tarefas como transcrição, análise de dados e tradução. Mas o que separa o uso responsável do abuso é a presença de supervisão editorial humana, o compromisso inabalável com a verificação dos fatos e a transparência com o público sobre como e por que a tecnologia está sendo empregada.
Ficar atento à origem das notícias que consumimos e compartilhamos deixou de ser apenas um bom hábito. Num cenário em que a produção de desinformação convincente ficou absurdamente barata e rápida, verificar antes de compartilhar se tornou uma responsabilidade de todos nós. 👀
