Agentes norte-coreanos estão usando IA para enganar empresas ocidentais e conseguir empregos, diz Microsoft
A inteligência artificial se tornou uma ferramenta poderosa nas mãos de agentes ligados à Coreia do Norte, que estão conseguindo enganar empresas ocidentais com um esquema cada vez mais sofisticado de fraude trabalhista. Segundo um relatório publicado pela unidade de inteligência de ameaças da Microsoft, operadores vinculados ao regime de Pyongyang passaram a utilizar ferramentas de IA para criar identidades falsas altamente convincentes, com o objetivo de conquistar vagas remotas em áreas de TI e desenvolvimento de software. O golpe em si não é exatamente novo — há anos circulam informações sobre trabalhadores norte-coreanos infiltrados em empresas estrangeiras — mas o nível de tecnologia envolvido agora muda completamente o cenário.
A Microsoft descreveu em um blogpost detalhado como essa conhecida tática de arrecadação de fundos do governo de Pyongyang está sendo turbinada pela IA. As ferramentas ajudam a criar nomes falsos, alterar documentos de identidade roubados e aumentar a credibilidade de candidatos fictícios que se aplicam para vagas de TI e desenvolvimento de software em empresas do Ocidente. Uma vez contratados, esses falsos profissionais enviam seus salários de volta para o Estado de Kim Jong-un e, em alguns casos documentados, chegaram até a ameaçar divulgar dados sensíveis de empresas após serem demitidos 😬.
Como o esquema funciona do início ao fim
O golpe começa muito antes do primeiro contato com uma empresa. Os agentes norte-coreanos contam com o apoio de facilitadores localizados nos próprios países onde as empresas-alvo estão sediadas. Esses intermediários ajudam a dar veracidade às identidades fabricadas, fornecendo endereços, números de telefone e até contas bancárias locais. A partir daí, a IA entra em ação para montar perfis profissionais completos que parecem absolutamente legítimos.
De acordo com a Microsoft, os grupos identificados como Jasper Sleet e Coral Sleet — nomes dados seguindo a convenção de analistas de cibersegurança para identificar coletivos de agentes — utilizam plataformas de IA generativa para produzir listas de nomes culturalmente apropriados para diferentes regiões. Um exemplo de prompt citado pela empresa seria algo como crie uma lista de 100 nomes gregos ou crie uma lista de formatos de e-mail usando o nome Jane Doe. Esses nomes são então combinados com endereços de e-mail em formatos que imitam padrões reais, construindo identidades que passam facilmente por uma triagem inicial.
A sofisticação não para por aí. Os operadores também vasculham plataformas de emprego como a Upwork em busca de vagas relacionadas a software e TI. Eles analisam os requisitos técnicos listados nos anúncios e usam IA para adaptar seus currículos e cartas de apresentação de forma personalizada para cada vaga, maximizando as chances de serem chamados para entrevistas. A Upwork afirmou que toma medidas agressivas para detectar e remover maus atores de sua plataforma, mas reconheceu que o desafio é constante.
Deepfakes e alteração de voz nas entrevistas
Durante as entrevistas remotas, o nível de disfarce atinge seu ponto máximo. A Microsoft revelou que os golpistas utilizam softwares de alteração de voz para mascarar seus sotaques, conseguindo se passar por candidatos ocidentais de forma convincente. Além disso, o aplicativo de IA Face Swap é usado para inserir rostos de trabalhadores norte-coreanos em documentos de identidade roubados e para gerar fotos de perfil com aparência profissional e polida para currículos.
Em alguns casos, um único operador gerencia múltiplas identidades ao mesmo tempo, participando de entrevistas para empresas diferentes no mesmo dia. A IA também fornece respostas técnicas rápidas e precisas durante testes práticos realizados ao vivo, tornando praticamente impossível para um recrutador comum perceber que está diante de uma fraude em andamento. Esse nível de automação e disfarce digital representa um salto gigantesco em relação às tentativas anteriores, que dependiam basicamente de documentos falsificados e da atuação de intermediários humanos.
Nas palavras da própria Microsoft: Jasper Sleet utiliza IA em todo o ciclo de ataque para ser contratado, permanecer empregado e explorar o acesso obtido em larga escala.
O que acontece depois da contratação
Depois de conquistar uma vaga, esses falsos profissionais operam normalmente por semanas ou meses, entregando tarefas de qualidade suficiente para não levantar suspeitas. A Microsoft detalhou que os agentes usam IA para escrever e-mails profissionais, traduzir documentos e até gerar código, tudo com o objetivo de evitar que sejam descobertos como fraudadores ou demitidos por baixo desempenho.
Em paralelo, muitos deles aproveitam o acesso aos sistemas internos das empresas para coletar informações sensíveis e mapear infraestruturas de rede. Em situações mais graves, já houve registro de instalação de backdoors que podem ser exploradas em ataques cibernéticos futuros. Ou seja, a fraude vai muito além do simples desvio de salários — ela cria uma porta de entrada para espionagem corporativa e ameaças de segurança que podem causar danos significativos a longo prazo 🔓.
Há ainda um componente de chantagem. Quando esses falsos trabalhadores são eventualmente descobertos ou demitidos, alguns deles recorrem a ameaças de vazamento de dados sensíveis da empresa como forma de extorsão. Esse comportamento transforma o que já era um problema sério de fraude em uma crise completa de segurança da informação.
A escala da operação impressiona
Para se ter uma ideia da dimensão desse esquema, a Microsoft revelou que no ano passado conseguiu desativar cerca de 3.000 contas do Microsoft Outlook e Hotmail que estavam sendo usadas por falsos trabalhadores de TI norte-coreanos. Esse número dá uma noção clara de que não estamos falando de ações isoladas, mas de uma operação industrial e sistemática, patrocinada diretamente pelo Estado.
Segundo estimativas de agências de inteligência dos Estados Unidos, trabalhadores de TI norte-coreanos infiltrados em empresas estrangeiras geram centenas de milhões de dólares por ano para o regime de Pyongyang. Esse montante rivaliza com o que o país obtém por meio de ataques cibernéticos diretos, como ransomware e roubo de criptomoedas, e representa uma fonte de receita estável e particularmente difícil de interromper. É dinheiro que ajuda a financiar programas sob sanções internacionais, o que torna o combate a esse tipo de fraude ainda mais urgente do ponto de vista geopolítico 💰.
O impacto no mercado de trabalho remoto
Esse cenário descrito pela Microsoft coloca em xeque uma das grandes conquistas do mercado de trabalho dos últimos anos: a contratação remota global. Empresas de tecnologia que abraçaram o modelo distribuído agora enfrentam um dilema real. Como garantir a autenticidade de candidatos quando a própria IA é capaz de fabricar uma pessoa inteira, com rosto, voz, histórico profissional e habilidades técnicas aparentemente legítimas?
O problema não atinge apenas startups ou pequenas empresas. Grandes corporações com processos de recrutamento estruturados também foram alvo dessas operações, justamente porque a escala do trabalho remoto dificulta verificações presenciais e checagens mais aprofundadas de antecedentes internacionais. A confiança que tornou o trabalho remoto possível está sendo explorada de maneira deliberada por esses agentes.
Como se proteger: as recomendações da Microsoft
Diante desse cenário, a Microsoft e outras organizações de segurança já estão oferecendo orientações concretas para que empresas possam se defender. Uma das principais recomendações é bastante direta: realizar entrevistas de emprego para cargos de TI por vídeo ou presencialmente, tomando cuidado especial para identificar sinais de deepfake durante videochamadas.
Segundo a Microsoft, entrevistadores treinados podem identificar vídeos ou imagens geradas por IA por meio de uma série de indicadores visuais, incluindo:
- Pixelização nas bordas do rosto, olhos, orelhas e óculos
- Inconsistências na forma como a luz interage com o rosto do candidato
- Movimentos faciais que parecem artificiais ou ligeiramente dessincronizados
- Artefatos visuais que aparecem brevemente durante mudanças de expressão
Além dessas verificações visuais, outras medidas estão sendo adotadas pelo mercado para conter a ameaça:
- Investimento em soluções de verificação biométrica de identidade que vão além da simples checagem de documentos, utilizando detecção de liveness para confirmar que a pessoa na câmera é real
- Integração de ferramentas de análise comportamental em plataformas de recrutamento, capazes de identificar inconsistências entre o fuso horário declarado e o IP de conexão do candidato
- Adoção de protocolos de verificação em múltiplas etapas durante o processo seletivo
- Desconfiança saudável em relação a perfis que parecem perfeitos demais, já que a perfeição fabricada por IA muitas vezes deixa rastros sutis
IA como espada de dois gumes
O que essa história toda nos mostra é algo que já vinha se desenhando há algum tempo, mas que agora ganha contornos muito concretos. A mesma IA que está revolucionando a produtividade, acelerando processos criativos e transformando a forma como desenvolvemos software também está sendo usada como instrumento de fraude em escala industrial. Não se trata de um cenário hipotético ou de ficção científica. São operações reais, documentadas por uma das maiores empresas de tecnologia do planeta, que afetam empresas de todos os tamanhos.
Para quem trabalha com tecnologia ou contratação de profissionais remotos, o recado é claro: investir em camadas adicionais de segurança durante o processo de recrutamento deixou de ser algo opcional. É uma necessidade real e urgente. A verificação de identidade precisa evoluir na mesma velocidade em que as ferramentas de falsificação estão avançando. E isso vale tanto para departamentos de RH quanto para equipes de segurança da informação, que precisam trabalhar de forma integrada para fechar as brechas que esses agentes estão explorando 🔒.
O caso também levanta uma reflexão importante sobre como plataformas de trabalho remoto e ferramentas de recrutamento precisam repensar seus mecanismos de validação. Não basta mais confiar em um currículo bem escrito, um perfil do LinkedIn com boas conexões ou uma entrevista por vídeo onde o candidato parece seguro e tecnicamente competente. Em um mundo onde a IA pode fabricar tudo isso em questão de minutos, a autenticidade humana virou o ativo mais valioso — e mais difícil de verificar — do processo de contratação.
