El verano pasado, los investigadores de ciberseguridad de HYAS publicaron la prueba de concepto de EyeSpy, una cepa de malware totalmente autónoma impulsada por IA que, según dijeron, puede razonar, elaborar estrategias y ejecutar ciberataques por sí sola.1 Este experimento, advirtieron, era un vistazo de la nueva era de ciberamenazas devastadoras e indetectables que pronto desataría la inteligencia artificial.
O tal vez no.
“Hay mucho bombo en torno a la IA, en ciberseguridad y en otros lugares”, dice Ruben Boonen, líder de desarrollo CNE Capability en IBM X-Force Adversary Services. “Pero mi opinión es que, actualmente, no deberíamos estar demasiado preocupados por el malware impulsado por IA. No he visto ninguna demostración en la que el uso de IA esté permitiendo algo que no fuera posible sin este".
El escenario de amenazas siempre está evolucionando, y podría llegar un momento en que el malware basado en IA represente un grave peligro. Pero por ahora, al menos, muchos expertos en seguridad consideran que las discusiones sobre el malware de IA son una mezcla de pura especulación y más que un poco de marketing.
Los actores de amenazas que usan IA hoy en día la utilizan en gran medida para refinar los mismos scripts básicos y ataques de ingeniería social con los que ya están familiarizados los equipos de ciberseguridad. Esto significa que las organizaciones pueden protegerse si siguen enfocándose en los aspectos fundamentales, como la aplicación de parches a los activos, la capacitación de los empleados y la inversión en las soluciones adecuadas de detección de amenazas.
Tanto los modelos de lenguaje grande (LLM) de propósito general como Llama de Meta y las aplicaciones específicas como watsonx Code Assistant de IBM pueden ayudar a los programadores a acelerar el desarrollo escribiendo, depurando y traduciendo código.
La preocupación es que estos beneficios no se limiten a los programadores benévolos. Al hacer jailbreak a los sistemas de IA legítimos o crear los suyos propios, los actores de amenazas pueden hipotéticamente utilizar estas herramientas de IA para agilizar los procesos de desarrollo de malware.
A algunos les preocupa que la IA pueda reducir la barrera de entrada en el mercado de malware, permitiendo que más delincuentes cibernéticos escriban programas maliciosos independientemente del nivel de habilidad. O, lo que es peor, las tecnologías de IA podrían ayudar a los actores de amenazas a desarrollar un nuevo malware que pueda eludir las defensas comunes y causar estragos incalculables.
Algunos investigadores trataron de ilustrar los peligros que podrían plantear las ciberamenazas generadas por la IA al experimentar con diferentes formas de incorporar la IA al malware:
Estos experimentos parecen alarmantes a primera vista, pero muchos expertos en seguridad los ven como poco más que curiosidades.
"Cosas como [BlackMamba y EyeSpy] no me asustan en absoluto", dice Boonen, quien realiza ejercicios de equipo rojo para ayudar a las organizaciones a fortalecer sus defensas contra ataques cibernéticos reales.
“Cuando analizo los detalles técnicos sobre cómo se implementan estos programas, no creo que tendrían ningún éxito si los usáramos en nuestros compromisos con los clientes”, explica.
Hay un par de razones por las que Boonen y otros se muestran escépticos sobre el discurso actual sobre el malware generado por IA.
En primer lugar, estas "nuevas amenazas" en realidad no están haciendo nada que los equipos de seguridad no hayan visto antes, lo que significa que las estrategias de defensa existentes siguen siendo eficaces contra ellas.
“Los conceptos presentados con BlackMamba y EyeSpy no son nuevos”, afirma Kevin Henson, especialista líder en ingeniería inversa de malware en IBM X-Force Threat Intelligence. “Los defensores ya se toparon en el pasado con malware con estas capacidades, escondido en código polimórfico en la memoria”.
Henson señala a los autores de malware que utilizan técnicas como la metaprogramación para enmascarar datos importantes y generar de forma única ciertos elementos, como patrones de código, con cada compilación.
En segundo lugar, aunque los LLM tienen habilidades de programación impresionantes, es poco probable que puedan generar variantes de malware sin precedentes en el corto plazo.
“Creo que usar ChatGPT [y otras herramientas de IA] para generar malware tiene limitaciones porque el código es generado por modelos que han sido entrenados en un conjunto de datos”, dice Henson. “Como resultado, el código generado no será tan complejo como el código desarrollado por un humano”.
Si bien se ha dicho mucho sobre cómo IA y los algoritmos de machine learning podrían marcar el comienzo de un renacimiento del delito cibernético al eliminar las habilidades de la producción de malware, los modelos actuales aún no están ahí. Los usuarios aún necesitan saber un par de cosas sobre el código para asegurarse de que todo lo que genera un LLM hace lo que ellos quieren.
"La IA es un facilitador de la productividad y, hasta cierto punto, hay una reducción en el nivel de conocimiento requerido para escribir código cuando se usan", dice Boonen. "Pero no es una reducción masiva".
De hecho, si los actores de amenazas comenzaran a implementar malware basado en IA hoy, es probable que produzca un exceso de código de baja calidad que los defensores detectarían y desactivarían fácilmente.
"No digo que no haya una posibilidad técnica en el futuro de que se cree una pieza de malware realmente buena que aproveche la IA", dice Boonen. “Si los modelos siguen mejorando al ritmo que lo han hecho, creo que llegará un punto en el que podrán hacer cosas importantes. Entonces, tendremos que tomárnoslo más en serio. Pero todavía no creo que estemos en esta etapa”.
"Este problema se asemeja mucho a lo que sucede en el desarrollo de software, porque el malware no es más que software malicioso", afirma Mühr, especialista en ingeniería inversa de malware de IBM X-Force Threat Intelligence.
"En este momento, no vemos muchas aplicaciones que tengan IA perfectamente integrada en su código", explica Mühr. "Cuando veamos que la IA se vuelve predominante en el software en general, podremos esperar que también se vuelva común en el malware".
Este patrón se ha reproducido en el pasado, tal como lo informa el X-Force Threat Intelligence Index. El ransomware y el cryptojacking no se convirtieron en amenazas generalizadas hasta que las tecnologías legítimas que permiten estos ataques (Microsoft Active Directory para ransomware, criptomonedas e infraestructura como servicio para cryptojacking) también se adoptaron por completo.
Mühr señala que cualquier nueva tecnología debe proporcionar un retorno de la inversión aceptable antes de que los desarrolladores la adopten, y lo mismo ocurre con los desarrolladores de malware.
Los investigadores de ciberseguridad, incluido X-Force de IBM, aún no han encontrado evidencia de actores de amenazas que utilicen inteligencia artificial para generar nuevo malware en estado natural. Sin embargo, los delincuentes cibernéticos están utilizando herramientas de IA para actividades maliciosas más cotidianas, como escribir scripts simples y correos electrónicos de phishing.
"En el desarrollo de software legítimo, vemos que la IA generativa se utiliza para complementar el proceso de desarrollo, proporcionando orientación y creando fragmentos de código básicos", dice Mühr. "Hoy en día los actores de amenazas ya utilizan ese tipo de tecnología de I con fines maliciosos, pero eso no es algo que notaríamos como una amenaza extremadamente sofisticada".
Por ejemplo, Microsoft y OpenAI han atrapado y detenido a varios actores de estados nación que intentan utilizar sus LLM como asistentes de programación. El grupo “Forest Blizzard”, vinculado a Rusia, utilizó los LLM para investigar vulnerabilidades en los sistemas objetivo, mientras que el grupo iraní “Crimson Sandstorm” los utilizó para escribir scripts de raspado web.3
Sin embargo, los ataques de phishing asistidos por LLM son el uso malicioso de IA que más preocupa a muchos expertos en seguridad.
“Creo en este punto que la mayor amenaza es el uso de IA generativa para la suplantación de identidad y el phishing”, dice Mühr. “Ese es un caso de uso en el que la IA ya puede tener un enorme impacto al crear texto, video y audio similares a los humanos. Y ya hemos visto indicadores de que esto está siendo un arma para el phishing”.
Por ejemplo, los hackers pueden usar LLM para escribir correos electrónicos de phishing que imitan de cerca las voces de las marcas de confianza. Estos correos electrónicos generados por LLM también carecen de señales de alerta comunes, como errores gramaticales y frases engorrosas, que las víctimas potenciales suelen emplear para identificar estafas.
Los actores maliciosos también pueden aprovechar la IA para generar deepfakes que hacen que sus estafas sean aún más convincentes. Por ejemplo, unos estafadores en la Región Administrativa Especial de Hong Kong de la República Popular China utilizaron una videoconferencia generada por IA para engañar a una víctima para que transfiriera 25 millones de USD a cuentas bancarias fraudulentas.4
Estas estafas impulsadas por IA pueden engañar tanto a los objetivos humanos como a los sistemas de seguridad empresarial destinados a detenerlas. Por ejemplo, el delincuente cibernético grupo que X-Force denomina “Hive0137” probablemente usa IA para generar variaciones de los correos electrónicos de phishing, de modo que puedan pasar desapercibidos para los filtros que buscan mensajes maliciosos conocidos.
La IA no ha cambiado fundamentalmente el campo de batalla de la ciberseguridad. En cambio, ha ayudado a los atacantes a optimizar las cosas que ya estaban haciendo. Eso significa que la mejor línea de defensa contra los ataques impulsados por IA es que las organizaciones se ciñan a los fundamentos.
“Si hablamos de que la IA se utiliza para realizar ataques, el riesgo y la respuesta no cambian para los defensores”, dice Ben Shipley, analista de amenazas estratégicas de IBM X-Force Threat Intelligence. “El malware escrito por IA o por un humano seguirá comportándose como malware. El ransomware escrito por IA no tiene un impacto más significativo en una víctima que el ransomware escrito por un humano".
Las medidas de seguridad estándar pueden ayudar a cerrar las vulnerabilidades que el malware, asistido por IA o de otro modo, debe explotar para entrar en un sistema. Por ejemplo, los programas formales de gestión de parches pueden realizar correcciones de software antes de que los actores maliciosos los encuentren. Los controles de identidad y acceso sólidos, como la autenticación multifactor, pueden combatir el secuestro de cuentas, uno de los vectores más comunes de ciberataques en la actualidad.
Otras medidas también pueden ayudar a combatir los ataques de IA:
Mientras que los actores maliciosos pueden utilizar las herramientas de IA para agilizar sus procesos, los defensores pueden y deben hacer lo mismo.
Según el Informe del costo de una filtración de datos, las organizaciones que utilizan IA y automatización para la ciberseguridad pueden reducir significativamente los costos de las filtraciones.
La IA puede hacer que los esfuerzos de prevención sean más efectivos y acelerar los plazos para la detección y corrección de amenazas, reduciendo 1.88 millones USD del costo promedio de una filtración de datos. (Para las organizaciones que invierten mucho en IA de seguridad y automatización, la filtración promedio cuesta 3.84 millones USD. Para las organizaciones sin IA de seguridad ni automatización, la filtración promedio cuesta 5.72 millones USD).
La IA tradicional basada en reglas ya está presente en muchas herramientas comunes de ciberseguridad, como las herramientas de detección y respuesta de endpoints (EDR) y las herramientas de de analytics de comportamiento de usuarios y entidades (UEBA). Pero los nuevos modelos de IA generativa también están preparados para ayudar a los defensores.
"Creo que los modelos de IA generativa tendrán un gran impacto en cosas como la respuesta a incidentes", dice Boonen. "Por ejemplo, podrían comprender o resumir incidentes más rápido porque los modelos pueden analizar muchos más datos en un período de tiempo más corto que un humano".
Eso acelera el proceso para los analistas, que pueden utilizar esos insights para detener las amenazas de forma más rápida y eficaz.
Y aunque las IA pueden producir los deepfakes que los actores maliciosos utilizan para engañar a las personas, también pueden desempeñar un papel vital en la lucha contra esos mismos esquemas.
"Algunas imágenes ya parecen casi indistinguibles de las imágenes reales y, a medida que avanzamos, sospecho que la mayoría de las personas no podrán diferenciarlas", explica Boonen. "Así que creo que tendremos que entrenar a los modelos de IA para que digan: 'Este video es falso' o 'Esta imagen es falsa' donde los humanos no logran hacerlo".
Al igual que ocurre con el futuro de las amenazas impulsadas por la IA, es probable que el impacto de la IA en los profesionales de la ciberseguridad sea más un cambio gradual que una agitación explosiva. En lugar de dejarse llevar por el bombo publicitario o por los fatalistas, los equipos de seguridad harán mejor lo que siempre hicieron: mantener la vista en el futuro con los pies firmemente plantados en el presente.
Todos los enlaces son externos a ibm.com.
1. EyeSpy poof-of-concept, HYAS, 1 de agosto de 2023.
2. BlackMamba: using AI to genera polymorphic malware, HYAS, 31 de julio de 2023.
3. Staying ahead of threat actors in the age of AI, Microsoft, 14 de febrero de 2024.
4. Finance worker pays out USD 25 million after video call with deepfake 'chief financial officer,' CNN, 4 de febrero de 2024.