Nos últimos meses, testemunhamos uma mudança inegável nas capacidades dos sistemas de IA em campos diversos, tendo o ChatGPT, o chatbot da OpenAI, como grande destaque.
Os avanços e a adesão de sistemas baseados em IA possibilitam inovações e melhorias significativas. Em contraponto, também apresenta novos riscos, vulnerabilidades e desafios para a segurança, como a potencialização dos perfis fraudulentos, por meio de imagens e vídeos falsos, uma das tendências que apresentamos em nosso Relatório de Atividade Criminosa Online em 2022.
A consolidação da Inteligência Artificial e novas tendências
Assistentes inteligentes, carros autônomos, investimentos automatizados, entre muitos outros exemplos, expressam que a funcionalidade e a popularidade da Inteligência Artificial estão cada vez maiores. Esse movimento também pode ser observado pelas estatísticas e tendências sobre a área, tais como:
- O mercado global de IA atingirá o tamanho de meio trilhão de dólares americanos em 2023 (Tidio). Grande parte dessa taxa se deve a adoção de serviços baseados em nuvem, assistentes virtuais e IA de conversação
- Segundo a Forbes, cerca de 4 em cada 5 empresas consideram a IA uma prioridade em sua estratégia de negócios, utilizada principalmente nos e-mails automatizados e chatbots.
Com essa presença cada vez mais forte e expansiva, algumas tendências e movimentos da IA são colocados à mesa, tais como: a transparência, os direitos de propriedade e claro, como esses recursos podem ser explorados pelo cibercrime. Sendo assim, analisaremos agora os novos golpes envolvendo a Inteligência Artificial.
Novos golpes que exploram o potencial da IA
Os recursos da Inteligência Artificial podem ser aplicados para aprimorar golpes, dificultando a detecção por parte da segurança.
Alguns exemplos são:
- Uso do aprendizado de máquina para automatizar de lançamento de ataques, criando bots capazes de realizar campanhas de phishing em grande escala, atingindo um número muito maior de vítimas e potencializando os danos desses golpes digitais;
- Utilização do deepfake para criar imagens, áudios ou até vídeos realistas na clonagem de perfis, atacar reputações ou ainda se passar por executivos em novas formas de fraudes;
- Exploração dos recursos do ChatGPT para aprimorar o realismo dos golpes. O ChatGPT pode automatizar os golpes e ser utilizado para aprimorar as mensagens, diminuindo os erros de digitação e outras falhas, tornando o conteúdo fraudulento mais convincente. Além disso, LLAs (large language models) como o ChatGPT podem aprender a copiar o tom de escrita de uma pessoa, caso tenha exemplos suficientes para analisar. Esse material pode ser facilmente encontrado em postagens abertas de redes sociais, blogs, sites, etc. Todos esses recursos aumentam o potencial de convencimento e persuasão dos golpes;
- Otimização de algoritmos para adivinhar senhas de usuários. O uso das redes neurais pode potencializar as análises de vastos conjuntos de dados, gerando variações de senhas ajustáveis a distribuição estatística. Com os ajustes necessários a exploração pode gerar palpites cada vez mais precisos. Os hosts vulneráveis também entram na mira do cibercrime, que estão utilizando estruturas de IA para o roubo de credenciais, presentes em fóruns da Dark Web;
- Uso da Inteligência Artificial para geração de interações e conteúdos no vídeos no YouTube. As interações acontecem por meio de comentários frequentes, com mensagens aparentemente legítimas, ou ainda sobre o assunto do vídeo, que podem ser deixadas em massa por IA;
- Já no caso do conteúdo, tratam-se vídeos aparentemente legítimos, contendo infostealers, malwares projetados para roubar dados em cookies, nomes de usuários e senhas. Os vídeos utilizados para esses golpes são tutoriais sobre como usuários podem baixar versões crackeadas de programas como Photoshop, Premiere Pro, Autodesk 3ds Max, entre outros. Os recursos da IA são aplicados para gerar imagens humanas e aumentar o potencial de convencimento, fazendo com que os infostealers passem despercebidos pelas vítimas;
- Utilização da IA para imitar o comportamento humano e potencializar os golpes, para criar bots e perfis falsos em redes sociais. Além de utilizar a Inteligência Artificial para a criação dos perfis falsos, os golpistas geram curtidas e conquistam novos seguidores. Em alguns casos mais específicos, a IA pode ser aplicada para imitar movimentos naturais de um usuário, como selecionar ou arrastar algum elemento.
Os exemplos ampliam os desafios, mostrando a sofisticação do cibercrime e exigindo também aprimoramento e sofisticação nas estratégias de segurança.
O uso estratégico da IA na segurança empresarial
Se os cibercriminosos estão utilizando a Inteligência Artificial para aprimorar os golpes digitais, as empresas podem e precisam responder à altura. A abordagem da segurança cibernética precisa ir além do caminho de reação e defesa. Com recursos de IA, os sistemas e as equipes podem detectar ameaças em tempo real, além de prever ataques e auxiliar na detecção de anomalias e falsos positivos.
A Axur utiliza os padrões de Inteligência Artificial através de coletores que vasculham a Surface e Deep & Dark Web 24x7. Os robôs monitoram ameaças com inspeção automática e classificação de incidentes de acordo com o score de risco, fornecendo detalhes altamente relevantes para a estratégia de proteção contra riscos digitais e threat intelligence.
Além disso, a Axur lançou o primeiro monitoramento no metaverso na América Latina, possibilitando a remoção da lucratividade com pirataria nos marketplaces de NFT.
Leia mais sobre as NFTs e a reinvenção das marcas no Metaverso aqui. Conheça o monitoramento Counterfeit NFT.
Produzir e espalhar informação acessível e democrática sobre cibersegurança, é nisso que acredito.