Blog | Digital Risk Protection | Axur

Uso de Inteligencia Artificial para perpetrar estafas en línea

Escrito por Equipo de Contenido | 27-sep-2023 19:05:00

En los últimos meses, hemos sido testigos de un cambio innegable en las capacidades de los sistemas de inteligencia artificial en diversos campos, siendo ChatGPT, el chatbot de OpenAI, un destacado importante.

Los avances y la adopción de sistemas basados en IA permiten innovaciones y mejoras significativas. Sin embargo, también presentan nuevos riesgos, vulnerabilidades y desafíos de seguridad, como la amplificación de perfiles fraudulentos a través de imágenes y videos falsos.


La consolidación de la Inteligencia Artificial y las tendencias emergentes

Los asistentes inteligentes, vehículos autónomos, inversiones automatizadas, entre muchos otros ejemplos, demuestran que la funcionalidad y la popularidad de la Inteligencia Artificial continúan creciendo. Esta tendencia también se refleja en estadísticas y tendencias en el campo, como:

  • Se proyecta que el mercado global de IA alcance un tamaño de 500 billones de dólares estadounidenses para 2023 (Tidio). Gran parte de este crecimiento se debe a la adopción de servicios basados en la nube, asistentes virtuales y la IA conversacional.
  • Según Forbes, alrededor de 4 de cada 5 empresas consideran que la IA es una prioridad en su estrategia empresarial, utilizándose principalmente en correos electrónicos automatizados y chatbots.


Con esta creciente presencia y expansión, se están discutiendo diversas tendencias y movimientos en la IA, incluyendo la transparencia, los derechos de propiedad y, por supuesto, cómo estos recursos pueden ser explotados por la ciberdelincuencia. Por lo tanto, examinemos ahora las nuevas estafas relacionadas con la Inteligencia Artificial.

 

Nuevas estafas explotando el potencial de IA

Las capacidades de la Inteligencia Artificial pueden ser utilizadas para mejorar estafas, lo que dificulta su detección por parte de la seguridad. Algunos ejemplos incluyen:

  • El uso del Machine Learning para automatizar el lanzamiento de ataques, creando bots capaces de llevar a cabo campañas de phishing a gran escala, dirigidas a un número significativamente mayor de víctimas y amplificando el daño causado por estas estafas digitales.

  • La utilización de deepfakes para crear imágenes, audios o incluso vídeos realistas para la clonación de perfiles, ataques a la reputación o la suplantación de ejecutivos en nuevas formas de fraude.

  • La explotación de las capacidades de ChatGPT para mejorar el realismo de las estafas. ChatGPT puede automatizar estafas y utilizarse para mejorar mensajes, reduciendo errores tipográficos y otras imperfecciones, lo que hace que el contenido fraudulento sea más convincente. Además, modelos de lenguaje grandes (LLMs) como ChatGPT pueden aprender a imitar el estilo de escritura de una persona si se les proporcionan suficientes ejemplos para analizar. Este material se puede encontrar fácilmente en publicaciones abiertas en redes sociales, blogs, sitios web, etc. Todos estos recursos aumentan el potencial de persuasión y efectividad de las estafas.

  • La optimización de algoritmos para adivinar contraseñas de usuarios. El uso de redes neuronales puede mejorar el análisis de grandes conjuntos de datos, generando variaciones ajustables de contraseñas basadas en distribuciones estadísticas. Con los ajustes necesarios, la explotación puede llevar a suposiciones cada vez más precisas. Los hosts vulnerables también son objeto de ataque por parte de los ciberdelincuentes, que utilizan marcos de IA para el robo de credenciales en foros de la Dark Web.

  • El uso de la Inteligencia Artificial para generar interacciones y contenido en videos de YouTube. Las interacciones se producen a través de comentarios frecuentes que parecen legítimos o relacionados con el tema del video, los cuales pueden ser generados masivamente por la IA. En cuanto al contenido, los vídeos aparentemente legítimos contienen Infostealers, malware diseñado para robar datos de cookies, nombres de usuario y contraseñas. Estos videos se utilizan para engañar a los usuarios para que descarguen versiones pirateadas de software como Photoshop, Premiere Pro, Autodesk 3ds Max, entre otros. Los recursos de IA se aplican para generar imágenes que parecen humanas y aumentar la persuasión, haciendo que los infostealers pasen desapercibidos para las víctimas.

  • La utilización de la IA para imitar el comportamiento humano y mejorar estafas mediante la creación de bots y perfiles falsos en redes sociales. Además de usar la Inteligencia Artificial para la creación de perfiles falsos, los estafadores generan "me gusta" y obtienen nuevos seguidores. En algunos casos específicos, la IA se puede aplicar para imitar movimientos naturales de usuarios, como seleccionar o arrastrar elementos.

Estos ejemplos destacan los desafíos y muestran la sofisticación de la ciberdelincuencia, lo que requiere una mayor sofisticación en las estrategias de seguridad.


El uso estratégico de la IA en la seguridad empresarial

Si los ciberdelincuentes están aprovechando la Inteligencia Artificial para mejorar las estafas digitales, las empresas pueden y deben responder de manera adecuada. El enfoque en ciberseguridad debe ir más allá de las medidas reactivas y la defensa. Con recursos de IA, sistemas y equipos pueden detectar amenazas en tiempo real, predecir ataques y ayudar en la detección de anomalías y falsos positivos.

Axur utiliza patrones de Inteligencia Artificial a través de recolectores que escanean la Surface, y la Deep & Dark Web las 24 horas del día, los 7 días de la semana. Los robots monitorean amenazas con inspección automática y clasificación de incidentes basada en la puntuación de riesgo, proporcionando detalles altamente relevantes para estrategias de protección contra riesgos digitales e inteligencia de amenazas.