El verano pasado, los investigadores de ciberseguridad de HYAS publicaron la prueba de concepto de EyeSpy, una cepa de malware totalmente autónoma con IA que, según dijeron, puede razonar, elaborar estrategias y ejecutar ciberataques por sí sola1.Este experimento, advirtieron, era un atisbo de la nueva era de ciberamenazas devastadoras e indetectables que la inteligencia artificial pronto desataría.
O tal vez no.
"Hay mucho revuelo en torno a la IA, la ciberseguridad y otros lugares", afirma Ruben Boonen, director de desarrollo de capacidades del CNE en IBM X-Force Adversary Services. "Pero mi opinión es que, actualmente, no debemos preocuparnos demasiado por el malware con IA. No he visto ninguna manifestación en la que el uso de la IA permita algo que no fuera posible sin ella".
El panorama de las amenazas está en constante evolución y puede llegar un momento en el que el malware basado en IA suponga un grave peligro. Pero al menos por ahora, muchos expertos en seguridad sienten que las discusiones sobre el malware de IA son una mezcla de pura especulación y algo más que un poco de marketing.
Los actores de amenazas que utilizan la IA hoy en día la usan en gran medida para refinar los mismos scripts básicos y ataques de ingeniería social con los que los equipos de ciberseguridad ya están familiarizados. Esto significa que las organizaciones pueden protegerse si siguen centrándose en los aspectos fundamentales, como la aplicación de parches a los activos, la formación de los empleados y la inversión en las soluciones adecuadas de detección de amenazas.
Tanto los modelos de lenguaje de gran tamaño (LLM) de uso general como Llama de Meta y las aplicaciones específicas como watsonx Code Assistant de IBM pueden ayudar a los programadores a acelerar el desarrollo al escribir, depurar y traducir código.
La preocupación es que estos beneficios no se limitan a los programadores benévolos. Al hacer jailbreak a los sistemas de IA legítimos o crear los suyos propios, los actores de amenazas pueden utilizar hipotéticamente estas herramientas de IA para agilizar los procesos de desarrollo de malware.
A algunos les preocupa que la IA pueda reducir la barrera de entrada en el mercado del malware, permitiendo que más ciberdelincuentes escriban programas maliciosos independientemente del nivel de habilidad. O, lo que es peor, las tecnologías de IA podrían ayudar a los actores de amenazas a desarrollar un nuevo malware que pueda eludir las defensas comunes y causar estragos incalculables.
Algunos investigadores han tratado de ilustrar los peligros que podrían plantear las ciberamenazas generadas por IA experimentando con distintas formas de incorporar la IA al malware:
Estos experimentos parecen alarmantes a primera vista, pero muchos expertos en seguridad los ven como poco más que curiosidades.
"Cosas como [BlackMamba y EyeSpy] no me asustan en absoluto", dice Boonen, que realiza ejercicios de red teaming para ayudar a las organizaciones a reforzar sus defensas contra los ciberataques reales.
"Cuando me fijo en los detalles técnicos de cómo se aplican estos programas, no creo que tuvieran ningún éxito si los utilizáramos en los compromisos con nuestros clientes", explica.
Hay un par de razones por las que Boonen y otros se muestran escépticos ante el discurso actual sobre el malware generado por IA.
En primer lugar, estas "nuevas amenazas" no están haciendo realmente nada que los equipos de seguridad no hayan visto antes, lo que significa que las estrategias de defensa existentes siguen siendo eficaces contra ellas.
"Los conceptos presentados con BlackMamba y EyeSpy no son nuevos", afirma Kevin Henson, ingeniero jefe inverso de Malware de IBM X-Force Threat Intelligence. "Los defensores ya se han encontrado antes con malware con estas capacidades, ocultarse en la memoria, código polimórfico".
Henson señala a los autores de malware que utilizan técnicas como la metaprogramación para ofuscar datos importantes y generar de forma única ciertos elementos, como patrones de código, con cada compilación.
En segundo lugar, aunque los LLM tienen impresionantes habilidades de codificación, es poco probable que sean capaces de generar variantes de malware sin precedentes a corto plazo.
"Creo que el uso de ChatGPT [y otras herramientas de IA] para generar malware tiene limitaciones, porque el código se genera mediante modelos que se han entrenado con un conjunto de datos", afirma Henson. "Como resultado, el código generado no será tan complejo como el código desarrollado por un humano".
Aunque se ha hablado mucho de cómo la IA y los algoritmos de machine learning podrían marcar el comienzo de un renacimiento de la ciberdelincuencia mediante la reducción de la producción de malware, los modelos actuales aún no han llegado a ese punto. Los usuarios aún necesitan saber un par de cosas sobre el código para asegurarse de que todo lo que genera un LLM hace lo que ellos quieren.
"La IA es un facilitador de la productividad y, hasta cierto punto, se reduce el nivel de conocimiento necesario para escribir código cuando se utilizan", afirma Boonen. "Pero no es una reducción masiva".
De hecho, si los actores de las amenazas comenzaran hoy a implementar ampliamente el malware basado en IA, lo más probable es que se produjera un exceso de código de baja calidad que los defensores detectarían y desactivarían fácilmente.
"No digo que no exista una posibilidad técnica de que en el futuro se cree un malware realmente bueno que aproveche la IA", afirma Boonen. “Si los modelos siguen mejorando al ritmo actual, creo que llegará un punto en el que podrán hacer cosas sustanciales. Entonces tendremos que tomarlo más en serio. Pero no creo que estemos en esa etapa todavía”.
"Este problema refleja fielmente lo que ocurre en el desarrollo de software, porque el malware no es más que software malicioso", afirma Golo Mühr, ingeniero inverso de Malware de IBM X-Force Threat Intelligence.
"En este momento, no vemos muchas aplicaciones que tengan la IA integrada de manera fluida en su código", explica Mühr. "Cuando vemos que la IA se vuelve predominante en el software en general, podemos esperar que también se vuelva común en el malware".
Este patrón se ha desarrollado en el pasado, como informa el X-Force Threat Intelligence Index. El ransomware y el criptojacking no se convirtieron en amenazas generalizadas hasta que también se adoptaron plenamente las tecnologías legítimas que permitían estos ataques (Microsoft Active Directory para el ransomware, las criptomonedas y la infraestructura como servicio para el criptohackeo).
Mühr señala que cualquier tecnología nueva debe ofrecer una rentabilidad de la inversión decente antes de que los desarrolladores la adopten, y lo mismo ocurre con los desarrolladores de malware.
Los investigadores de ciberseguridad, incluido X-Force de IBM, aún no han encontrado evidencia de que los actores de amenazas utilicen la inteligencia artificial para generar nuevo malware en la naturaleza. Pero los ciberdelincuentes están utilizando herramientas de IA para actividades maliciosas más comunes, como escribir scripts simples y correos electrónicos de phishing.
"En el desarrollo legítimo de software, vemos que la IA generativa se utiliza para complementar el proceso de desarrollo, proporcionando orientación y creando fragmentos de código básicos", dice Mühr. "Ese tipo de tecnología de IA ya la utilizan los actores de amenazas con fines maliciosos hoy en día, pero eso no es algo que notaríamos como una amenaza extremadamente sofisticada".
Por ejemplo, Microsoft y OpenAI han atrapado y detenido a varios actores de estados-nación que intentaban utilizar sus LLM como asistentes de codificación. El grupo "Forest Blizzard", vinculado a Rusia, utilizó los LLM para investigar vulnerabilidades en los sistemas objetivo, mientras que el grupo iraní "Crimson Sandstorm" los utilizó para escribir scripts de raspado web3.
Sin embargo, los ataques de phishing asistidos por LLM son el uso malicioso de la IA que más preocupa a muchos expertos en seguridad.
"Creo que, en este momento, la mayor amenaza es el uso de la IA generativa para la suplantación de identidad y el phishing", afirma Mühr. "Ese es un caso de uso en el que la IA ya puede tener un gran impacto al crear texto, vídeo y audio similares a los humanos. Y ya hemos visto indicadores de que esto se está utilizando como arma para el phishing".
Por ejemplo, los hackers pueden utilizar los LLM para escribir correos electrónicos de phishing que imitan fielmente las voces de marcas de confianza. Estos correos electrónicos generados por LLM también carecen de señales de alerta comunes, como errores gramaticales y frases incómodas, que las víctimas potenciales suelen usar para identificar estafas.
Del mismo modo,los actores maliciosos pueden aprovechar la IA para generar deepfakes que hagan que sus estafas sean aún más convincentes. Por ejemplo, los estafadores de la RAE de Hong Kong de la República Popular China utilizaron una conferencia generada por IA para engañar a una víctima para que transfiriera 25 millones de dólares a cuentas bancarias fraudulentas4.
Estas estafas con IA pueden engañar tanto a objetivos humanos como a los sistemas de seguridad empresarial destinados a detenerlos. Por ejemplo, el grupo de ciberdelincuentes que X-Force llama "Hive0137" probablemente utilice la IA para generar variaciones en los correos electrónicos de phishing para que puedan pasar por los filtros que buscan mensajes maliciosos conocidos.
La IA no ha cambiado de manera fundamental el campo de batalla de la ciberseguridad. En cambio, ha ayudado a los atacantes a agilizar cosas que ya estaban haciendo. Eso significa que la mejor línea de defensa contra los ataques con IA es que las organizaciones se ceñan a lo fundamental.
"Si hablamos de que la IA se utiliza para realizar ataques, el riesgo y la respuesta no cambian para los defensores", afirma Ben Shipley, analista de amenazas estratégicas de IBM X-Force Threat Intelligence. "El malware escrito por IA o por un humano seguirá comportándose como malware. El ransomware escrito por IA no tiene un impacto más significativo en una víctima que el ransomware escrito por un humano".
Las medidas de seguridad estándar pueden ayudar a cerrar las vulnerabilidades que el malware, asistido por AI o no, debe explotar para entrar en un sistema. Por ejemplo, los programas formales de gestión de parches pueden corregir errores de software antes de que los actores maliciosos los encuentren. Los sólidos controles de identidad y acceso, como la autenticación multifactor, pueden combatir el secuestro de cuentas, uno de los vectores más comunes de ciberataques en la actualidad.
Otras medidas también pueden ayudar a combatir los ataques de IA:
Mientras que los actores maliciosos pueden servirse de las herramientas de IA para agilizar sus procesos, los defensores pueden, y deben, hacer lo mismo.
Según el informe "Cost of a Data Breach" de IBM, las organizaciones que utilizan la IA y la automatización para la ciberseguridad pueden reducir significativamente los costes de las vulneraciones.
La IA puede hacer que los esfuerzos de prevención sean más eficaces y acelerar los plazos para la detección y corrección de amenazas, ahorrando 1,88 millones de dólares del coste medio de una vulneración de datos. (Para las organizaciones que invierten mucho en IA de seguridad y automatización, la infracción media cuesta 3,84 millones de dólares. Para las organizaciones que carecen de IA y automatización de la seguridad, la vulneración media cuesta 5,72 millones de dólares).
La IA tradicional basada en reglas ya está presente en muchas herramientas comunes de ciberseguridad, como las herramientas de detección y respuesta de endpoints (EDR) y las herramientas de análisis del comportamiento de usuarios y entidades (UEBA). Pero los nuevos modelos de IA generativa también están preparados para ayudar a los defensores.
"Creo que los modelos de IA generativa tendrán un gran impacto en aspectos como la respuesta a los incidentes", afirma Boonen. "Por ejemplo, es posible que puedan entender o resumir los incidentes más rápido porque los modelos pueden analizar muchos más datos en un período de tiempo más corto que un humano".
Esto acelera el proceso para los analistas, que pueden utilizar esos conocimientos para detener las amenazas de forma más rápida y eficaz.
Y aunque las IA pueden producir los deepfakes que los actores maliciosos utilizan para engañar a las personas, también pueden desempeñar un papel vital en la lucha contra esos mismos esquemas.
"Algunas imágenes ya parecen casi indistinguibles de las imágenes reales y, a medida que avanzamos, sospecho que la mayoría de las personas no podrán diferenciarlas", explica Boonen. "Así que creo que tendremos que entrenar modelos de IA para decir: 'Este vídeo es falso' o 'Esta imagen es falsa' algo que los humanos no podemos hacer".
Al igual que con el futuro de las amenazas con IA, es probable que el impacto de la IA en los profesionales de la ciberseguridad sea más un cambio gradual que un trastorno explosivo. En lugar de dejarse llevar por el bombo publicitario o por los agoreros, los equipos de seguridad hacen mejor lo que siempre han hecho: mantener la vista en el futuro con los pies firmemente plantados en el presente.
Enlaces externos a ibm.com
1. EyeSpy poof-of-concept. HYAS. 1 de agosto de 2023.
2. BlackMamba: using AI to generate polymorphic malware. HYAS. 31 de julio de 2023.
3. Staying ahead of threat actors in the age of AI. Microsoft. 14 de febrero de 2024.
4. Finance worker pays out USD 25 million after video call with deepfake 'chief financial officer'. CNN. 4 de febrero de 2024.