Digital Fraud, Threat Intelligence

A Inteligência Artificial substituirá os analistas de cibersegurança?

Por Time de Conteúdo em
COMPARTILHAR

À medida que a Inteligência Artificial (IA) avança e se expande em diversos campos, é comum questionar se, ou como, a IA poderia substituir um humano em uma tarefa específica. Mas essa é realmente a pergunta certa? Uma questão mais relevante pode ser qual o papel dos analistas nesta realidade impulsionada pela IA, não apenas como usuários, mas como intérpretes essenciais, supervisores e diretores da tecnologia de IA, utilizando-a para aprimorar suas capacidades, otimizar processos e tomar decisões mais informadas e estratégicas.

A IA é uma ferramenta para capacitar pessoas e equipes não apenas a fazer mais, mas também a inovar na forma como resolvem problemas. Tentar fazer a IA se encaixar em processos criados para humanos pode ser como tentar encaixar um quadrado em um círculo. Para aproveitá-la plenamente, devemos visualizar as coisas que ela nos permite fazer.

A cibersegurança nos obriga a fazer escolhas para gerenciar riscos, então otimizar recursos e priorizar ativos faz parte do desafio. O estudo sobre força de trabalho em cibersegurança do ISC2 retrata muito bem esse cenário, com muitos profissionais relatando lacunas em suas equipes e a necessidade de mais mão de obra em muitas organizações.

Adotando o processo de gestão de riscos com uma abordagem voltada para a IA, é possível fechar essa lacuna – e mudar o que significa ter inteligência de ameaças cibernéticas confiável e acionável.

 

Inteligência de ameaças de IA: o primeiro respondente

A Inteligência Artificial se destaca na coleta e correlação de informações de maneira oportuna. Sempre que há necessidade de filtrar dados de alertas e eventos e relacioná-los ao que é relevante para sua superfície de ataque, a IA pode – e deve – desempenhar um papel muito importante.

A IA pode ser muito rápida e abrangente, trazendo pontos de dados e insights de inteligência de ameaças que de outra forma poderiam passar despercebidos ou não ser capturados a tempo de elaborar um plano de mitigação. Para CISOs e gerentes de equipe, uma ferramenta como o Polaris  pode oferecer ajuda inestimável na detecção de pontos cegos e refocar a equipe em ameaças mais ativas. Pode funcionar como um conselheiro, informando sobre os últimos riscos cibernéticos antes mesmo de o dia começar.

Enquanto modelos de linguagem de grande escala (LLMs) gerais podem ser problemáticos devido a alucinações e saída inconsistente, modelos especializados podem ser personalizados para se tornarem o primeiro respondente para qualquer evento, incidente ou alerta que requeira atenção. O Polaris não está sujeito às limitações que impedem ferramentas como o ChatGPT ou Gemini de adquirir e processar informações de última hora.

Nessa capacidade, a Inteligência Artificial pode diminuir os efeitos de "alert fatigue", um fenômeno conhecido onde humanos se tornam dessensibilizados a alertas ou informações produzidas por sensores e outras ferramentas. A IA não tem esse problema – ela sempre considerará cada bit de dados aos quais tem acesso e os priorizará com base no que aprendeu sobre a superfície de ataque, os atores de ameaças envolvidos ou os riscos comerciais que você identificou.

Quando a IA assume esse papel, não está fazendo o trabalho de um humano. Em vez disso, é uma perspectiva totalmente nova que uma empresa de outra forma não teria – pelo menos não tão rapidamente quanto a IA pode entregá-la.

A inteligência de ameaças é mais útil quando é acionável, relevante e oportuna, e isso é o que a IA pode ser treinada para encontrar para as equipes de segurança. É por isso que construímos o Polaris.

Analistas trazem sua percepção e intuição

Mitigações e estratégias de resposta variam de acordo com o negócio. Empresas têm culturas de trabalho distintas e estão cada uma sujeitas a um ambiente regulatório que varia por setor ou localização. Enquanto uma empresa pode ver a conscientização do usuário como um caminho viável para mitigar uma ameaça específica, outra pode achar isso ineficaz ou impraticável.

Percepções sobre o que uma ameaça significa para o negócio podem e devem vir dos analistas, que entendem o negócio de maneiras que uma IA não pode ser facilmente configurada para fazer. Nem todos os sistemas são igualmente importantes para cada negócio, e muitos detalhes que são facilmente e intuitivamente compreendidos por equipes de TI e segurança não seriam compreendidos por uma máquina.

Graças a isso, os analistas podem propor soluções que uma IA exigiria um número infinito de parâmetros e treinamento para replicar.

Utilizar a Inteligência Artificial para coleta de informações libera mais tempo para os analistas trabalharem na solução desses problemas e se manterem atualizados com as tendências atuais, o que informará sua tomada de decisão e engenhosidade. Tais tarefas podem ser mais gratificantes do que vasculhar dados para encontrar um único ponto relevante que uma ferramenta como o Polaris poderia ter trazido à sua atenção em segundos.

Os analistas também podem pensar em perguntas para melhorar sua compreensão de uma ameaça. Ao contrário dos LLMs de propósito geral como o ChatGPT, que são mais focados na geração do que na coleta de dados, os relatórios do Polaris favorecem resumos curtos com referências apropriadas ao material de origem, permitindo fácil acesso a tudo que pode ajudar a moldar a resposta a um evento, como informações sobre o ator da ameaça, indústria ou organização alvo e locais mencionados.

Uma perspectiva conjunta para melhor gestão de riscos

A IA já está sendo empregada por hackers e golpistas online. Novos tipos de ciberataques, baseados em IA, provavelmente estão a caminho. E os atacantes não estão preocupados em ser "substituídos" pela IA, pois isso não faz sentido. Em vez disso, estão focados em construir diferentes tipos de golpes e campanhas que simplesmente não eram possíveis antes, contando com o fato de que muitos usuários e empresas não estarão preparados.

A IA nos permite repensar e melhorar a forma como coletamos inteligência de ameaças. Ela pode minimizar o atraso da coleta de dados à ação. Mas essa ação sempre exigirá pessoas que entendem os compromissos e os princípios da cibersegurança. A IA está lá para ser parte da equipe.

A Inteligência Artificial não deveria ser uma ameaça para os analistas de cibersegurança. Se algo, é uma ameaça para os adversários que procuram tornar nossas redes e negócios inseguros.

Inicie um teste gratuito: axur.com/polaris
Contate-nos em: contato@axur.com

ESPECIALISTA CONVIDADO

Eduardo Schultze, Coordenador do CSIRT da Axur, formado em Segurança da Informação pela UNISINOS – Universidade do Vale do Rio dos Sinos. Trabalha desde 2010 com fraudes envolvendo o mercado brasileiro, principalmente Phishing e Malware

AUTOR

Time de Conteúdo

Criamos conteúdo relevante para tornar a internet um lugar mais seguro.