A medida que la Inteligencia Artificial (IA) mejora y se expande en diversos campos, es común que la gente se pregunte si, o cómo, la IA podría reemplazar a un humano en una tarea específica. Pero, ¿es esa realmente la pregunta correcta? Una pregunta más pertinente podría ser qué rol juegan los analistas en esta realidad impulsada por la IA, no solo como usuarios, sino como intérpretes esenciales, supervisores y directores de la tecnología de IA, aprovechándola para mejorar sus capacidades, optimizar procesos y tomar decisiones más informadas y estratégicas.
La IA es una herramienta para empoderar a las personas y equipos no solo para hacer más, sino también para innovar en cómo resuelven problemas. Intentar hacer que la IA se ajuste a los procesos que se crearon para los humanos a veces puede ser como intentar meter un cuadrado en un círculo. Para aprovecharla plenamente, debemos visualizar las cosas que nos permite hacer.
La ciberseguridad nos obliga a hacer compensaciones para gestionar riesgos, por lo que optimizar recursos y priorizar activos es parte del desafío. El Estudio de la Fuerza Laboral en Ciberseguridad de ISC2 muestra muy bien este panorama, con muchos profesionales informando brechas en sus equipos y una necesidad de más mano de obra en muchas organizaciones.
Al adaptar el proceso de gestión de riesgos con un enfoque primero en IA, es posible cerrar esa brecha y cambiar lo que significa tener inteligencia de amenazas cibernéticas confiable y accionable
La Inteligencia Artificial destaca cuando se trata de recopilar y correlacionar información de manera oportuna. Siempre que haya necesidad de tamizar datos de alertas y eventos y combinar eso con lo que es relevante para su superficie de ataque, la IA puede y debe jugar un papel muy importante.
La IA puede ser muy rápida y exhaustiva, brindándote puntos de datos e insights de inteligencia de amenazas que de otro modo podrías haber pasado por alto o no habrías capturado a tiempo para elaborar un plan de mitigación. Para los CISOs y gerentes de equipo, una herramienta como Polaris puede proporcionar una ayuda invaluable en la detección de puntos ciegos y en reenfocar al equipo hacia amenazas más activas. Puede funcionar como un consejero, asesorando sobre los últimos riesgos cibernéticos antes de que el día haya siquiera comenzado.
Mientras que los modelos de lenguaje de gran escala (LLMs) generales pueden ser problemáticos debido a las alucinaciones y la salida inconsistente, los modelos especializados pueden ser personalizados para convertirse en el primer respondiente para cualquier evento, incidente o alerta que requiera atención. Polaris no está sujeto a las limitaciones que impiden que herramientas como ChatGPT o Gemini adquieran y procesen información de último momento.
En esa capacidad, la Inteligencia Artificial puede disminuir los efectos de la "fatiga de alarma", un fenómeno conocido donde los humanos se vuelven insensibles a las alertas o la información producida por sensores y otras herramientas. La IA no tiene ese problema: siempre considerará cada bit de datos a los que tiene acceso y los priorizará en función de lo que ha aprendido sobre la superficie de ataque, los actores de amenazas involucrados o los riesgos empresariales que haya identificado.
Cuando la IA asume este papel, no está haciendo el trabajo de un humano. En cambio, es una perspectiva completamente nueva que un negocio de otra manera no tendría, al menos no tan rápido como la IA puede proporcionarlo.
La inteligencia de amenazas es más útil cuando es accionable, relevante y oportuna, y eso es lo que la IA puede ser entrenada para encontrar para los equipos de seguridad. Por eso construimos Polaris.
Las mitigaciones y estrategias de respuesta varían según el negocio. Las empresas tienen culturas de trabajo distintas y cada una está sujeta a un entorno regulatorio que varía según el sector o la ubicación. Mientras que una empresa puede considerar la concienciación de los usuarios como un camino viable para mitigar una amenaza específica, otra podría encontrarlo ineficaz o impracticable.
Las percepciones sobre lo que una amenaza significa para el negocio pueden y deben venir de los analistas, que entienden el negocio de maneras que una IA no puede ser fácilmente configurada para hacer. No todos los sistemas son igualmente importantes para cada negocio, y muchos detalles que son fácilmente e intuitivamente entendidos por los equipos de TI y seguridad no serían comprendidos por una máquina.
Gracias a eso, los analistas pueden idear soluciones que una IA requeriría un número interminable de parámetros y entrenamiento para replicar.
Aprovechar la Inteligencia Artificial para la recopilación de información libera más tiempo para que los analistas trabajen en resolver estos problemas y para mantenerse al día con las tendencias actuales, lo cual informará su toma de decisiones y su ingenio. Tales tareas pueden ser más satisfactorias que peinar datos para encontrar un solo punto relevante que una herramienta como Polaris podría haber traído a su atención en segundos.
Los analistas también pueden pensar en preguntas para mejorar su comprensión de una amenaza. A diferencia de los LLMs de propósito general como ChatGPT, que están más centrados en la generación que en la obtención de datos, los informes de Polaris favorecen resúmenes cortos con referencias adecuadas al material de origen, permitiendo un fácil acceso a todo lo que puede ayudar a dar forma a la respuesta a un evento, como información sobre el actor de la amenaza, la industria o organización objetivo y los lugares mencionados.
La IA ya está siendo empleada por hackers y estafadores en línea. Es probable que estén en camino nuevos tipos de ciberataques basados en IA. Y a los atacantes no les preocupa ser "reemplazados" por la IA, ya que eso no tiene sentido. En su lugar, están enfocados en construir diferentes tipos de estafas y campañas que simplemente no eran posibles antes, contando con el hecho de que muchos usuarios y empresas por igual no estarán preparados.
La IA nos permite repensar y mejorar la forma en que recopilamos inteligencia sobre amenazas. Puede minimizar la demora desde la recolección de datos hasta la acción. Pero esa acción siempre requerirá personas que entiendan los compromisos y los principios de la ciberseguridad. La IA está ahí para ser parte del equipo.
La Inteligencia Artificial no debería ser una amenaza para los analistas de ciberseguridad. Si acaso, es una amenaza para los adversarios que buscan hacer nuestras redes y negocios inseguros.
Inicie una prueba gratuita de 15 días: axur.com/polaris
Contáctenos en: contact@axur.com.