A mensagem chegou às 11h10 de uma terça-feira qualquer:
“Ei, acabei de ver isso e achei que pudesse fazer sentido para você 👀 O TikTok está procurando ajudantes remotos para apoiar novos vendedores do TikTok Shop — trabalho bem tranquilo.”
O que tornava essa mensagem notável não era apenas o fato de ter chegado até um investigador de segurança da OpenAI. Era que mensagens semelhantes estavam sendo disparadas, ao mesmo tempo, para celulares no Reino Unido (em inglês perfeito), em Ruanda (em quiniaruanda fluente) e no Haiti (em crioulo nativo) — todas geradas por IA e coordenadas a partir do Camboja.
Bem-vindo à nova era dos golpes de tarefas remuneradas, em que a inteligência artificial transforma fraudes amadoras em operações de nível industrial, capazes de se adaptar, em tempo real, a qualquer idioma, cultura ou perfil de vítima.
Golpes de tarefa não são novidade. A promessa de altos ganhos por tarefas simples — como curtir posts ou clicar em anúncios — existe há anos. O que mudou foi a escala e a sofisticação que os modelos de inteligência artificial hoje trazem consigo.
Antes, esses golpes enfrentavam limitações naturais. Barreiras de idioma restringiam operações a regiões específicas. Erros de tradução e gramática apresentavam um sinal de alerta claro e a necessidade de personalização humana de texto impedia a escalabilidade.
A IA eliminou essas barreiras.
No mais recente relatório de inteligência da OpenAI, os pesquisadores expuseram a “Operação Número Errado” — uma rede de golpes baseada no Camboja que usou o ChatGPT para criar uma máquina de fraude multilinguística. A operação gerava mensagens convincentes em seis idiomas, adaptava o conteúdo ao contexto cultural e mantinha personas consistentes em milhares de conversas.
Esse é apenas um exemplo de um ecossistema muito mais amplo de fraudes impulsionadas por IA. De promessas de dinheiro fácil a falsas ofertas de emprego impulsionadas pela instabilidade econômica, os cibercriminosos estão aprimorando suas operações cada vez mais com as capacidades oferecidas por modelos de linguagem.
A análise da Axur sobre esses golpes de tarefas remuneradas com IA revelou um padrão consistente em três etapas, que maximiza o engajamento das vítimas e reduz as chances de detecção:
A operação começa com mensagens frias geradas por IA e distribuídas por múltiplos canais — SMS, WhatsApp, Telegram e redes sociais. Estas não são as típicas mensagens de spam cheias de erros. A IA garante que elas sejam gramaticalmente perfeitas, culturalmente adequadas e psicologicamente otimizadas.
Indicadores chave identificados:
Oferta de remunerações irrealistas por tarefas simples (como US$ 5 por curtida no TikTok ou US$ 360–500 por dia)
Uso de tom informal e amigável para gerar confiança
Mencionar empresas ou plataformas legítimas
Ser disparadas de forma massiva e simultânea em diversos canais
Após a resposta da vítima, a IA passa a gerenciar a conversa. O sistema traduz mensagens entre operadores e vítimas, mantém narrativas consistentes e gera "comprovações" de ganhos de outros supostos participantes.
O que torna essa fase perigosa?
Histórias de sucesso geradas por IA a partir de participantes falsos
Painéis de ganhos e confirmações de pagamento realistas
Escalada gradual que parece natural
Adaptação cultural que faz os golpes parecerem locais
A etapa final introduz o elemento financeiro. As vítimas precisam pagar uma “taxa de ativação”, comprar criptomoeda para “verificação de comerciante” ou arcar com “custos de processamento” para liberar seus ganhos. Neste ponto, o envolvimento psicológico faz com que elas estejam mais propensas a pagar.
Métodos comuns de extração:
Depósitos iniciais variando de US$ 20 a vários centenas de dólares
Compras de criptomoedas enviadas para carteiras anônimas
Estruturas de taxas progressivas que aumentam com o tempo
Táticas de pressão reforçadas por mensagens urgentes geradas por IA
Os golpes de tarefas impulsionados por IA não são ameaças teóricas. Eles estão causando danos mensuráveis em diversos setores e regiões:
Escala de operação:
Campanhas gerando conteúdo em mais de 6 idiomas simultaneamente
Milhares de mensagens personalizadas enviadas por hora
Taxas de resposta 3 a 5 vezes maiores que golpes tradicionais devido a personalização de mensagens por IA
Impacto financeiro:
Perdas individuais variando de US$ 50 a mais de US$ 5.000
Estimativa de perdas globais acima de US$ 1 bilhão por ano
Aumento de 40% nos relatos de golpes de tarefa após adoção de IA
Distribuição geográfica:
Operações em mais de 50 países
Suporte a mais de 20 idiomas
Adaptação cultural por mercado-alvo
O ecossistema de fraudes trabalhistas vai além dos golpes de tarefas remuneradas. A inteligência de ameaças da Axur documentou um aumento significativo nos golpes de emprego impulsionados por IA, especialmente voltados a profissionais de tecnologia — com intensificação à medida que demissões no setor criam populações mais vulneráveis (CTI Insight). Essas operações se aproveitam da instabilidade econômica, com golpistas se passando por recrutadores legítimos em plataformas como o LinkedIn e utilizando tecnologia de deepfake para realizar entrevistas convincentes. A sofisticação é comparável à dos golpes de tarefa — a IA está viabilizando fraudes em larga escala e com nível de credibilidade sem precedentes.
Medidas antifraude convencionais não conseguem acompanhar a evolução dos golpes com IA, por vários motivos:
A IA cria variações únicas para cada mensagem, o que inviabiliza a detecção baseada em assinaturas. Nenhuma vítima recebe o mesmo conteúdo, tornando o reconhecimento de padrões praticamente impossível.
Verificadores gramaticais e filtros de qualidade de tradução — antes considerados indicadores confiáveis — tornam-se inúteis quando a IA garante o uso perfeito da linguagem em todas as comunicações.
Quando um canal é bloqueado, a IA ajuda os operadores a adaptarem rapidamente o conteúdo para outras plataformas. Um golpe no WhatsApp pode se transformar em uma operação no Telegram em poucas horas.
A IA não apenas traduz — ela localiza. Referências, métodos de pagamento e dinâmicas sociais são ajustados automaticamente para cada mercado-alvo.
Apesar da sofisticação, golpes com IA deixam rastros. Confira como equipes de segurança podem identificar essas atividades:
Velocidade de resposta: respostas em múltiplos idiomas com rapidez incompatível com atividade humana
Marcadores de consistência: conteúdos gerados por IA costumam manter uma consistência incomum de tom entre diferentes operadores
Tempo de resposta: traduções instantâneas e complexas indicam o uso de sistemas automatizados
Agrupamento semântico: variações geradas por IA tendem a se concentrar em torno de temas específicos
Precisão incomum: gramática perfeita em vários idiomas oriunda de uma mesma fonte
Detecção de templates: mesmo ao criar conteúdos “únicos”, a IA segue padrões estruturais
Incompatibilidades geográficas: operadores localizados em um país mirando vítimas em regiões distantes
Diversidade de plataformas: o mesmo conteúdo aparece em plataformas diferentes e não relacionadas
Roteamento de pagamentos: carteiras de criptomoeda recebendo micropagamentos de várias origens geográficas
Proteger marcas e usuários desses golpes exige uma estratégia robusta, sofisticação de táticas equivalente à dos atacantes:
Monitore casos de falsificação de marca em diferentes idiomas e plataformas. Golpes de tarefa frequentemente se passam por empresas legítimas — de TikTok a Uber, passando por negócios locais. A detecção precoce evita a vitimização em massa.
Velocidade é essencial. Nossos dados mostram que a infraestrutura de golpes de tarefa normalmente opera por 48 a 72 horas antes de migrar. Processos automatizados de remoção precisam ser mais rápidos do que o ciclo de adaptação dos golpistas.
Acompanhe atores de ameaça por diferentes canais. Quando um golpe surge no WhatsApp, modelos preditivos identificam a provável expansão para Telegram, Signal ou redes sociais.
Use IA para combater a IA. Modelos de linguagem avançados conseguem identificar padrões sutis em conteúdos gerados por IA que passariam despercebidos por analistas humanos. A plataforma de inteligência da Axur, que realiza mais de 1.000 remoções por dia, desenvolveu modelos especializados para detectar padrões de fraude gerados por IA em múltiplos idiomas.
Marcas usadas em golpes de tarefas remuneradas, enfrentam danos à reputação e perda de confiança dos clientes. Confira o plano de ação recomendado:
Monitorar menções à marca em diferentes idiomas
Criar processos ágeis de resposta a denúncias de golpe
Educar clientes sobre como identificar golpes e os canais oficiais da marca
Monitorar domínios parecidos e typosquatting
Estratégia de longo prazo:
Implementar uma inteligência de ameaças abrangente, que cubra múltiplos idiomas e regiões
Automatizar os processos de detecção e remoção para acompanhar a velocidade de atuação dos golpistas
Formar equipes de resposta multidisciplinares, incluindo segurança, jurídico e comunicação
Colaborar com empresas do setor para compartilhar inteligência sobre ameaças
O uso de IA em fraudes financeiras marca uma mudança estrutural no cenário de ameaças. À medida que modelos de linguagem se tornam mais sofisticados e acessíveis, esperamos ver:
Golpes hiperpersonalizados que se adaptam à vítima em tempo real
Integração de deepfakes, adicionando elementos de voz e vídeo aos golpes
Operações autônomas, com pouquíssima supervisão humana
Coordenação internacional de campanhas por atores individuais
A indústria de cibersegurança precisa acompanhar esse ritmo. Defesas estáticas e processos manuais não conseguem competir com ameaças operando em velocidade de máquina.
Os golpes de tarefa são apenas uma faceta das fraudes com IA — mas mostram o ponto central: o cibercrime já está usando IA em larga escala. A questão não é se a IA vai transformar o crime digital–mas se os defensores vão conseguir se adaptar na velocidade necessária?
Se sua organização leva a sério a proteção da marca e dos clientes, a mensagem é clara: adote defesas com IA ou arrisque ser superado por ataques com IA. As ferramentas já existem. As ameaças são reais. A hora de agir é agora.
A Axur processa mais de 1.000 remoções por dia, com visibilidade única sobre padrões emergentes. Golpes de tarefas remuneradas com IA representam uma parcela crescente desses casos, e sua sofisticação só aumenta.
Não espere sua marca ser o próximo alvo. Assuma o controle da gestão de ameaças digitais antes que os golpistas assumam o controle da sua reputação.
Pronto para proteger sua marca contra ameaças impulsionadas por IA? Fale com os especialistas da Axur e conheça nossa plataforma automatizada de remoção, capaz de combater golpes de tarefa e outros padrões emergentes de fraude.