Go back Tendências & Notícias

O candidato deepfake: proteja sua organização de fraudes potencializadas por IA

Por Time de Conteúdo em 26 de Junho de 2025

Seu novo desenvolvedor remoto passou com louvor por todas as entrevistas técnicas. As credenciais conferem. As referências são impecáveis. Só há um problema: essa pessoa não existe.

Bem-vindo à era da fraude trabalhista com uso de IA, em que agentes maliciosos utilizam modelos de linguagem para criar identidades profissionais convincentes, automatizar candidaturas em massa e infiltrar organizações no mundo todo.

No relatório “Interrompendo o uso malicioso da IA” de junho de 2025, a OpenAI expôs diversas campanhas fraudulentas de emprego usando o ChatGPT para produzir materiais falsos voltados a vagas de TI e engenharia de software. Essas não eram operações amadoras — as táticas, técnicas e procedimentos se alinhavam a esquemas de trabalhadores de TI com patrocínio estatal, especialmente atribuídos à Coreia do Norte. As implicações são alarmantes: sua próxima contratação pode ser parte de uma rede internacional de fraude impulsionada por IA.

A anatomia da fraude trabalhista com IA

A investigação da OpenAI revelou um ecossistema sofisticado, no qual atores maliciosos integraram IA a todas as etapas do processo de fraude de emprego. A operação interrompida envolvia dois tipos distintos de operadores atuando em conjunto:

Operadores principais - os estrategistas que:

  • Automatizavam a criação de currículos com base em descrições de vagas e modelos de habilidades

  • Criavam ferramentas para gerenciar e monitorar centenas de candidaturas simultâneas

  • Geravam postagens de vagas para recrutar contratados em diferentes regiões do mundo

  • Pesquisavam configurações de trabalho remoto e técnicas para burlar sistemas de segurança

Operadores contratados - os executores que:

  • Utilizavam o ChatGPT para concluir tarefas de candidatura

  • Geravam mensagens para coordenar com os operadores principais

  • Solicitavam pagamentos e instruções para manter suas personas

  • Conduziam as ações fraudulentas do dia a dia

Essa estrutura em dois níveis permite escalar a operação mantendo segurança operacional: os operadores principais permanecem ocultos enquanto os contratados assumem o risco da interação direta com as empresas-alvo.

Como agem os falsos candidatos com IA

A OpenAI detalhou as táticas específicas usadas por esses grupos em cada etapa da fraude:

Etapa 1: geração automatizada de candidaturas

Os golpistas usavam o ChatGPT como linha de montagem para criar candidaturas fraudulentas:

  • Geração dinâmica de currículos adaptados automaticamente às descrições de vaga

  • Gestão de perfis com históricos profissionais fabricados, mas consistentes

  • Bibliotecas de habilidades combináveis conforme a vaga

  • Criação de referências falsas, porém críveis, de colegas fictícios

Um dado especialmente preocupante: operadores localizados na África se faziam passar por candidatos, mas toda a infraestrutura era gerida por operadores principais, possivelmente baseados na Coreia do Norte.

Etapa 2: preparação da infraestrutura

A sofisticação ia muito além da fraude na candidatura. A OpenAI identificou pesquisas dos operadores sobre:

  • Tailscale (VPN ponto a ponto) para conexões seguras e não rastreáveis

  • OBS Studio e vdo.ninja para inserção de vídeos falsos ao vivo em entrevistas

  • Loops de captura HDMI para burlar verificações biométricas

  • Ferramentas de administração remota para acesso persistente a notebooks corporativos

Essas ferramentas permitiriam manter uma presença remota indetectável, contornando processos de verificação de identidade que requerem conferências por vídeo. Combinadas a tecnologias de deepfake — cujo uso crescente foi confirmado pela inteligência da Axur —, o resultado é uma falsificação praticamente imperceptível.

Etapa 3: o esquema do notebook

A descoberta mais alarmante foi a de um esquema envolvendo o recrutamento de pessoas reais nos EUA para receber notebooks corporativos. A lógica era:

  1. Residentes legítimos nos EUA recebiam notebooks enviados por empregadores

  2. Os dispositivos eram configurados para acesso remoto por operadores estrangeiros

  3. Assim, os golpistas trabalhavam “dos EUA”, mesmo estando em outro país

  4. O pagamento era dividido entre o “titular” do notebook e o verdadeiro operador

Etapa 4: segurança operacional (OpSec)

Para evitar a detecção, os operadores demonstravam técnicas impressionantes de segurança:

  • Cada conta do ChatGPT era usada apenas uma vez, para uma conversa e uma tarefa específica

  • Criavam e-mails temporários para cada sessão

  • Utilizavam prompts detalhados e automações para gerar conteúdo em escala

  • Vários níveis de contratados mascaravam a identidade dos operadores principais

Escala global: da OpenAI à inteligência do setor

Embora a OpenAI tenha focado em abusos específicos do ChatGPT, o cenário geral revela um ecossistema global de fraudes trabalhistas. A inteligência da Axur confirmou essas descobertas, documentando operações semelhantes de trabalhadores norte-coreanos que infiltraram mais de 300 empresas nos EUA (CTI Insight).

A convergência das evidências aponta para:

  • Patrocínio estatal: táticas consistentes sugerem envolvimento governamental

  • Geração de receita: casos documentados de roubo de salários superam US$ 17 milhões

  • Dupla finalidade: ganho financeiro e possível espionagem ou roubo de dados

  • Alcance global: operações na África, América do Norte e Ásia

O que torna essas operações especialmente perigosas é sua evolução. Antes, as personas falsas eram criadas manualmente. Hoje, esse processo é totalmente automatizado, permitindo fraudes em escala inédita.

Sinais de alerta: como identificar fraudes trabalhistas com IA

Com base nas descobertas da OpenAI e de outras fontes do setor, confira os principais indicadores de alerta:

Durante o recrutamento

    • Candidatos superqualificados se candidatando a múltiplas vagas simultaneamente

    • Respostas técnicas perfeitas, com aparência de roteiro ou uso de IA

  • Resistência ao uso de plataformas comuns de vídeo

  • Estilo de comunicação inconsistente entre textos e conversas ao vivo

  • Interesse incomum na logística do trabalho remoto antes mesmo da oferta

Alertas técnicos identificados pela OpenAI:

  • Solicitações por VPNs específicas (especialmente Tailscale)

  • Perguntas sobre ferramentas de transmissão de vídeo ou compartilhamento de tela durante o onboarding

  • Interesse excessivo no envio e manuseio de equipamentos de TI

  • Preferência por ambientes de desenvolvimento que favorecem acesso remoto

  • Questionamentos detalhados sobre medidas de segurança com foco investigativo

Padrões comportamentais:

  • Contas com pouca duração: e-mails e logins mudando com frequência

  • Inconsistências geográficas: candidatura de uma região, entrevista de outra

  • Problemas com pagamento: preferência por métodos alternativos ou intermediários

  • Atrasos na documentação: dificuldade em fornecer verificações padrão

  • Referências anômalas: difíceis de validar ou parecendo ensaiadas

As técnicas de IA por trás da fraude

A análise da OpenAI revelou como os golpistas utilizam modelos de linguagem:

Geração de currículo e candidatura

  • Automação com templates: criação de modelos base com palavras-chave específicas da vaga

  • Consistência de persona: manutenção de um histórico profissional crível em todas as candidaturas

  • Adaptação cultural: ajuste de estilo de comunicação conforme o mercado-alvo

  • Combinação de habilidades: mapeamento automático entre requisitos da vaga e a experiência alegada

Preparação para entrevistas

  • Roteiros de resposta: criação antecipada de respostas para perguntas técnicas comuns

  • Assistência em tempo real: uso da IA durante desafios técnicos ao vivo

  • Aprimoramento linguístico: textos em inglês polido para candidatos não nativos

  • Modelagem comportamental: criação de padrões consistentes de personalidade para cada identidade

Coordenação operacional

  • Comunicações criptografadas: mensagens codificadas entre operadores

  • Distribuição de tarefas: coordenação entre múltiplos contratados

  • Negociação de pagamentos: automação de acordos sobre divisão de valores

  • Relatórios de desempenho: avaliações falsas para manter a fachada

Como criar um processo de contratação resistente à IA

Com base nas descobertas da OpenAI e nas melhores práticas do setor, veja como proteger sua organização:

1. Verificação reforçada de identidade

  • Verificação multiponto: cruzar dados em diferentes plataformas e bancos de dados

  • Verificação de localização: garantir que o local informado seja compatível com a pegada digital

  • Validação de equipamento: confirmar que o candidato utiliza seu próprio hardware

  • Verificação bancária: checar se os dados de pagamento correspondem à residência declarada

  • Triangulação de referências: validar referências por múltiplos canais independentes

2. Técnicas de entrevista com foco em IA

  • Desafios espontâneos: testes que não podem ser resolvidos com auxílio rápido de IA

  • Verificação visual: solicitar que o candidato mostre seu ambiente de trabalho e equipamentos

  • Análise de padrão de digitação: identificar sinais de colagem ou automação

  • Avaliação multimodal: combinar vídeo, áudio e redação

  • Testes sob pressão: exercícios com tempo limitado para dificultar a consulta à IA

3. Medidas de segurança pós-contratação

  • Monitoramento de dispositivos: acompanhar padrões de acesso e sinalizar anomalias

  • Análise de código: usar ferramentas que detectem contribuições geradas por IA

  • Padrões comportamentais: definir uma base de comportamento e alertar sobre desvios

  • Check-ins regulares: manter contato frequente por vídeo para confirmar identidade

  • Limitação de acesso: restringir dados sensíveis para novas contratações remotas

4. Prontidão organizacional

  • Colaboração entre equipes: integrar RH, TI e Segurança nos processos de contratação

  • Integração de inteligência de ameaças: manter-se atualizado sobre novas técnicas de fraude

  • Planejamento de resposta a incidentes: estar preparado para lidar com colaboradores fraudulentos

  • Atualização de contratos: incluir cláusulas que tratem de fraudes com IA

  • Colaboração com o setor: compartilhar inteligência com outras organizações

Impacto por setor

As operações de fraude trabalhista identificadas pela OpenAI visam setores específicos por sua atratividade econômica ou nível de acesso:

Empresas de tecnologia

O principal alvo, graças a salários altos e cultura remota. Vagas de TI e engenharia oferecem retorno financeiro e acesso a propriedade intelectual.

Serviços financeiros

Startups de cripto e fintechs são especialmente vulneráveis, devido ao foco em trabalho remoto e acesso potencial a sistemas financeiros.

Empresas contratadas pelo governo

As implicações para a segurança nacional são graves. Acesso a sistemas governamentais por meio de contratações representa riscos além do prejuízo financeiro.

Como se defender da próxima geração de fraudes

A interrupção da OpenAI mostra que identificar essas operações exige acompanhar sua evolução:

  • Fraudes manuais (ontem): atores individuais criando identidades falsas

  • Fraudes automatizadas (hoje): grupos organizados gerenciando dezenas de personas

  • Agentes autônomos (amanhã): sistemas de IA conduzindo o ciclo completo de contratação

As ferramentas descobertas pela OpenAI — da criação automatizada de currículos a esquemas de controle remoto — são apenas o começo. Com a evolução da capacidade dos modelos de linguagem, espera-se:

  • Automação completa do processo de candidatura

  • Assistência em tempo real em entrevistas, indistinguível de respostas humanas

  • Portfólios sintéticos baseados em código gerado por IA

  • Campanhas coordenadas visando setores inteiros ao mesmo tempo

Plano de ação: implementando contratações com consciência de IA

Com base nas descobertas da OpenAI e nas boas práticas do setor, aqui está um guia prático:

Semana 1: avaliação imediata

  • Audite todas as contratações remotas dos últimos 12 meses

  • Revise solicitações incomuns de pagamento ou acesso

  • Verifique o uso das ferramentas e padrões identificados pela OpenAI

  • Alerte sobre qualquer colaborador que apresente os comportamentos listados

Mês 1: fortalecimento de processos

  • Implemente verificação de identidade multifatorial

  • Atualize os processos de entrevista para detectar uso de IA

  • Implante monitoramento de indicadores técnicos

  • Treine as equipes de RH sobre as novas táticas de fraude

Trimestre 1: defesa estratégica

  • Integre inteligência de ameaças ao fluxo de contratação

  • Desenvolva capacidade interna de detecção de IA

  • Forme equipes de segurança interdisciplinares

  • Estabeleça redes de compartilhamento de informações no setor

Conclusão: a nova realidade da contratação remota

A interrupção das fraudes trabalhistas expostas pela OpenAI revela uma realidade incômoda: as mesmas ferramentas de IA que viabilizam o trabalho remoto estão sendo usadas contra ele. Os fraudadores não estavam apenas usando o ChatGPT para melhorar currículos — eles construíram infraestruturas completas de fraude baseadas em IA.

A sofisticação é impressionante. De currículos automatizados a esquemas elaborados de “lavagem” de notebooks, essas operações demonstram planejamento, recursos e capacidades técnicas que sugerem apoio estatal. Somadas à inteligência da Axur, que documenta operações semelhantes atribuídas à Coreia do Norte, o cenário é claro: a fraude trabalhista evoluiu de problema de RH para questão de segurança nacional.

Para as organizações, o alerta é direto: toda contratação remota agora representa um risco cibernético. Verificações tradicionais não são suficientes frente à manipulação com IA. As empresas que conseguirão resistir a esse novo cenário serão aquelas que repensarem seus processos de contratação desde a base.

Na Axur, acompanhamos a evolução dessas ameaças por meio da nossa plataforma de inteligência, observando as técnicas de fraude se tornarem mais sofisticadas a cada mês. A corrida armamentista da IA chegou ao recrutamento. A questão não é se sua empresa vai encontrar um candidato fraudulento — e sim se estará preparada quando isso acontecer.

Evite que sua próxima contratação se torne a sua maior brecha de segurança e mantenha-se à frente das fraudes sofisticadas com segurança baseada em inteligência.


Fale com nossos especialistas para saber como nossa plataforma pode proteger sua organização de tentativas de infiltração com IA.

Identify and eliminate digital risks. Understand how