Seu novo desenvolvedor remoto passou com louvor por todas as entrevistas técnicas. As credenciais conferem. As referências são impecáveis. Só há um problema: essa pessoa não existe.
Bem-vindo à era da fraude trabalhista com uso de IA, em que agentes maliciosos utilizam modelos de linguagem para criar identidades profissionais convincentes, automatizar candidaturas em massa e infiltrar organizações no mundo todo.
No relatório “Interrompendo o uso malicioso da IA” de junho de 2025, a OpenAI expôs diversas campanhas fraudulentas de emprego usando o ChatGPT para produzir materiais falsos voltados a vagas de TI e engenharia de software. Essas não eram operações amadoras — as táticas, técnicas e procedimentos se alinhavam a esquemas de trabalhadores de TI com patrocínio estatal, especialmente atribuídos à Coreia do Norte. As implicações são alarmantes: sua próxima contratação pode ser parte de uma rede internacional de fraude impulsionada por IA.
A investigação da OpenAI revelou um ecossistema sofisticado, no qual atores maliciosos integraram IA a todas as etapas do processo de fraude de emprego. A operação interrompida envolvia dois tipos distintos de operadores atuando em conjunto:
Operadores principais - os estrategistas que:
Automatizavam a criação de currículos com base em descrições de vagas e modelos de habilidades
Criavam ferramentas para gerenciar e monitorar centenas de candidaturas simultâneas
Geravam postagens de vagas para recrutar contratados em diferentes regiões do mundo
Pesquisavam configurações de trabalho remoto e técnicas para burlar sistemas de segurança
Operadores contratados - os executores que:
Utilizavam o ChatGPT para concluir tarefas de candidatura
Geravam mensagens para coordenar com os operadores principais
Solicitavam pagamentos e instruções para manter suas personas
Conduziam as ações fraudulentas do dia a dia
Essa estrutura em dois níveis permite escalar a operação mantendo segurança operacional: os operadores principais permanecem ocultos enquanto os contratados assumem o risco da interação direta com as empresas-alvo.
A OpenAI detalhou as táticas específicas usadas por esses grupos em cada etapa da fraude:
Os golpistas usavam o ChatGPT como linha de montagem para criar candidaturas fraudulentas:
Geração dinâmica de currículos adaptados automaticamente às descrições de vaga
Gestão de perfis com históricos profissionais fabricados, mas consistentes
Bibliotecas de habilidades combináveis conforme a vaga
Criação de referências falsas, porém críveis, de colegas fictícios
Um dado especialmente preocupante: operadores localizados na África se faziam passar por candidatos, mas toda a infraestrutura era gerida por operadores principais, possivelmente baseados na Coreia do Norte.
A sofisticação ia muito além da fraude na candidatura. A OpenAI identificou pesquisas dos operadores sobre:
Tailscale (VPN ponto a ponto) para conexões seguras e não rastreáveis
OBS Studio e vdo.ninja para inserção de vídeos falsos ao vivo em entrevistas
Loops de captura HDMI para burlar verificações biométricas
Ferramentas de administração remota para acesso persistente a notebooks corporativos
Essas ferramentas permitiriam manter uma presença remota indetectável, contornando processos de verificação de identidade que requerem conferências por vídeo. Combinadas a tecnologias de deepfake — cujo uso crescente foi confirmado pela inteligência da Axur —, o resultado é uma falsificação praticamente imperceptível.
A descoberta mais alarmante foi a de um esquema envolvendo o recrutamento de pessoas reais nos EUA para receber notebooks corporativos. A lógica era:
Residentes legítimos nos EUA recebiam notebooks enviados por empregadores
Os dispositivos eram configurados para acesso remoto por operadores estrangeiros
Assim, os golpistas trabalhavam “dos EUA”, mesmo estando em outro país
O pagamento era dividido entre o “titular” do notebook e o verdadeiro operador
Para evitar a detecção, os operadores demonstravam técnicas impressionantes de segurança:
Cada conta do ChatGPT era usada apenas uma vez, para uma conversa e uma tarefa específica
Criavam e-mails temporários para cada sessão
Utilizavam prompts detalhados e automações para gerar conteúdo em escala
Vários níveis de contratados mascaravam a identidade dos operadores principais
Embora a OpenAI tenha focado em abusos específicos do ChatGPT, o cenário geral revela um ecossistema global de fraudes trabalhistas. A inteligência da Axur confirmou essas descobertas, documentando operações semelhantes de trabalhadores norte-coreanos que infiltraram mais de 300 empresas nos EUA (CTI Insight).
A convergência das evidências aponta para:
Patrocínio estatal: táticas consistentes sugerem envolvimento governamental
Geração de receita: casos documentados de roubo de salários superam US$ 17 milhões
Dupla finalidade: ganho financeiro e possível espionagem ou roubo de dados
Alcance global: operações na África, América do Norte e Ásia
O que torna essas operações especialmente perigosas é sua evolução. Antes, as personas falsas eram criadas manualmente. Hoje, esse processo é totalmente automatizado, permitindo fraudes em escala inédita.
Com base nas descobertas da OpenAI e de outras fontes do setor, confira os principais indicadores de alerta:
Candidatos superqualificados se candidatando a múltiplas vagas simultaneamente
Respostas técnicas perfeitas, com aparência de roteiro ou uso de IA
Resistência ao uso de plataformas comuns de vídeo
Estilo de comunicação inconsistente entre textos e conversas ao vivo
Interesse incomum na logística do trabalho remoto antes mesmo da oferta
Solicitações por VPNs específicas (especialmente Tailscale)
Perguntas sobre ferramentas de transmissão de vídeo ou compartilhamento de tela durante o onboarding
Interesse excessivo no envio e manuseio de equipamentos de TI
Preferência por ambientes de desenvolvimento que favorecem acesso remoto
Questionamentos detalhados sobre medidas de segurança com foco investigativo
Contas com pouca duração: e-mails e logins mudando com frequência
Inconsistências geográficas: candidatura de uma região, entrevista de outra
Problemas com pagamento: preferência por métodos alternativos ou intermediários
Atrasos na documentação: dificuldade em fornecer verificações padrão
Referências anômalas: difíceis de validar ou parecendo ensaiadas
A análise da OpenAI revelou como os golpistas utilizam modelos de linguagem:
Automação com templates: criação de modelos base com palavras-chave específicas da vaga
Consistência de persona: manutenção de um histórico profissional crível em todas as candidaturas
Adaptação cultural: ajuste de estilo de comunicação conforme o mercado-alvo
Combinação de habilidades: mapeamento automático entre requisitos da vaga e a experiência alegada
Roteiros de resposta: criação antecipada de respostas para perguntas técnicas comuns
Assistência em tempo real: uso da IA durante desafios técnicos ao vivo
Aprimoramento linguístico: textos em inglês polido para candidatos não nativos
Modelagem comportamental: criação de padrões consistentes de personalidade para cada identidade
Comunicações criptografadas: mensagens codificadas entre operadores
Distribuição de tarefas: coordenação entre múltiplos contratados
Negociação de pagamentos: automação de acordos sobre divisão de valores
Relatórios de desempenho: avaliações falsas para manter a fachada
Com base nas descobertas da OpenAI e nas melhores práticas do setor, veja como proteger sua organização:
Verificação multiponto: cruzar dados em diferentes plataformas e bancos de dados
Verificação de localização: garantir que o local informado seja compatível com a pegada digital
Validação de equipamento: confirmar que o candidato utiliza seu próprio hardware
Verificação bancária: checar se os dados de pagamento correspondem à residência declarada
Triangulação de referências: validar referências por múltiplos canais independentes
Desafios espontâneos: testes que não podem ser resolvidos com auxílio rápido de IA
Verificação visual: solicitar que o candidato mostre seu ambiente de trabalho e equipamentos
Análise de padrão de digitação: identificar sinais de colagem ou automação
Avaliação multimodal: combinar vídeo, áudio e redação
Testes sob pressão: exercícios com tempo limitado para dificultar a consulta à IA
Monitoramento de dispositivos: acompanhar padrões de acesso e sinalizar anomalias
Análise de código: usar ferramentas que detectem contribuições geradas por IA
Padrões comportamentais: definir uma base de comportamento e alertar sobre desvios
Check-ins regulares: manter contato frequente por vídeo para confirmar identidade
Limitação de acesso: restringir dados sensíveis para novas contratações remotas
Colaboração entre equipes: integrar RH, TI e Segurança nos processos de contratação
Integração de inteligência de ameaças: manter-se atualizado sobre novas técnicas de fraude
Planejamento de resposta a incidentes: estar preparado para lidar com colaboradores fraudulentos
Atualização de contratos: incluir cláusulas que tratem de fraudes com IA
Colaboração com o setor: compartilhar inteligência com outras organizações
As operações de fraude trabalhista identificadas pela OpenAI visam setores específicos por sua atratividade econômica ou nível de acesso:
O principal alvo, graças a salários altos e cultura remota. Vagas de TI e engenharia oferecem retorno financeiro e acesso a propriedade intelectual.
Startups de cripto e fintechs são especialmente vulneráveis, devido ao foco em trabalho remoto e acesso potencial a sistemas financeiros.
As implicações para a segurança nacional são graves. Acesso a sistemas governamentais por meio de contratações representa riscos além do prejuízo financeiro.
A interrupção da OpenAI mostra que identificar essas operações exige acompanhar sua evolução:
Fraudes manuais (ontem): atores individuais criando identidades falsas
Fraudes automatizadas (hoje): grupos organizados gerenciando dezenas de personas
Agentes autônomos (amanhã): sistemas de IA conduzindo o ciclo completo de contratação
As ferramentas descobertas pela OpenAI — da criação automatizada de currículos a esquemas de controle remoto — são apenas o começo. Com a evolução da capacidade dos modelos de linguagem, espera-se:
Automação completa do processo de candidatura
Assistência em tempo real em entrevistas, indistinguível de respostas humanas
Portfólios sintéticos baseados em código gerado por IA
Campanhas coordenadas visando setores inteiros ao mesmo tempo
Com base nas descobertas da OpenAI e nas boas práticas do setor, aqui está um guia prático:
Semana 1: avaliação imediata
Audite todas as contratações remotas dos últimos 12 meses
Revise solicitações incomuns de pagamento ou acesso
Verifique o uso das ferramentas e padrões identificados pela OpenAI
Alerte sobre qualquer colaborador que apresente os comportamentos listados
Mês 1: fortalecimento de processos
Implemente verificação de identidade multifatorial
Atualize os processos de entrevista para detectar uso de IA
Implante monitoramento de indicadores técnicos
Treine as equipes de RH sobre as novas táticas de fraude
Trimestre 1: defesa estratégica
Integre inteligência de ameaças ao fluxo de contratação
Desenvolva capacidade interna de detecção de IA
Forme equipes de segurança interdisciplinares
Estabeleça redes de compartilhamento de informações no setor
A interrupção das fraudes trabalhistas expostas pela OpenAI revela uma realidade incômoda: as mesmas ferramentas de IA que viabilizam o trabalho remoto estão sendo usadas contra ele. Os fraudadores não estavam apenas usando o ChatGPT para melhorar currículos — eles construíram infraestruturas completas de fraude baseadas em IA.
A sofisticação é impressionante. De currículos automatizados a esquemas elaborados de “lavagem” de notebooks, essas operações demonstram planejamento, recursos e capacidades técnicas que sugerem apoio estatal. Somadas à inteligência da Axur, que documenta operações semelhantes atribuídas à Coreia do Norte, o cenário é claro: a fraude trabalhista evoluiu de problema de RH para questão de segurança nacional.
Para as organizações, o alerta é direto: toda contratação remota agora representa um risco cibernético. Verificações tradicionais não são suficientes frente à manipulação com IA. As empresas que conseguirão resistir a esse novo cenário serão aquelas que repensarem seus processos de contratação desde a base.
Na Axur, acompanhamos a evolução dessas ameaças por meio da nossa plataforma de inteligência, observando as técnicas de fraude se tornarem mais sofisticadas a cada mês. A corrida armamentista da IA chegou ao recrutamento. A questão não é se sua empresa vai encontrar um candidato fraudulento — e sim se estará preparada quando isso acontecer.
Evite que sua próxima contratação se torne a sua maior brecha de segurança e mantenha-se à frente das fraudes sofisticadas com segurança baseada em inteligência.
Fale com nossos especialistas para saber como nossa plataforma pode proteger sua organização de tentativas de infiltração com IA.