El uso de la inteligencia artificial se está expandiendo entre grupos de hackers, lo que ha llevado a un aumento en la productividad de sus operaciones. Según el último informe del Google Threat Intelligence Group (GTIG), se ha observado que los actores de amenazas están integrando cada vez más la IA para acelerar el ciclo de ataque, especialmente en áreas como la ingeniería social y el desarrollo de malware.
En particular, se destaca el uso de ataques de extracción de modelos, donde los hackers acceden a modelos de lenguaje de manera legítima para obtener información y crear nuevos modelos. Google reportó un caso que involucró más de 100,000 solicitudes destinadas a emular las capacidades de razonamiento de Google Gemini, lo que representa una amenaza significativa para las empresas.
Además, los actores de amenazas están utilizando modelos de lenguaje para generar engaños altamente personalizados que imitan el tono profesional de las organizaciones objetivo. Este cambio hacia un phishing potenciado por IA permite una mayor velocidad y precisión en la creación de perfiles de víctimas, minimizando el trabajo manual tradicionalmente requerido.
El informe también menciona el uso de herramientas de generación de código por parte de hackers como APT31 para automatizar el análisis de vulnerabilidades, así como el kit de phishing 'COINBAIT', que simula ser una criptomoneda y cuya construcción podría haber sido acelerada por herramientas de generación de código impulsadas por IA.