"Si hay un trabajo que la IA generativa no puede sustituir, es el de estafador".
Así es como Stephanie Carruthers, líder mundial de ciberrango y responsable de hackers de IBM, recuerda sentirse en 2022. ChatGPT acaba de dar a conocer la inteligencia artificial generativa. Su combinación de habilidades lingüísticas extrañamente humanas y una profunda base de conocimientos hizo que muchos se preguntaran cómo podría cambiar el mundo.
Y cómo podría cambiar sus trabajos.
"Cuando se presentó por primera vez, la gente me preguntaba: '¿Tiene miedo de que la IA le quite el trabajo?'", dice Carruthers. “Pensé que no podía. Tendríamos que llegar al punto en que la IA pudiera entender realmente a una persona y crear una campaña personalizada contra ella antes de que eso sucediera".
Como parte de IBM X-Force, Carruthers ejecuta esquemas simulados de ingeniería social y ciberataques para ayudar a las empresas a reforzar sus defensas contra la realidad. Los primeros modelos de IA generativa podían inventar algunas estafas de phishing bastante genéricas, pero no podían realizar los ataques sofisticados que causan daños graves. Esos esquemas requieren una investigación profunda, una planificación cuidadosa y pretextos muy específicos.
Pero pueden pasar muchas cosas en dos años y medio. Hoy en día, muchos modelos de lenguaje de gran tamaño (LLM) pueden buscar en Internet en tiempo real. Los agentes de IA, capaces de diseñar flujos de trabajo y realizar tareas de forma autónoma, pueden ir un paso más allá y utilizar la información que descubren para informar sus acciones.
Ya no nos parece disparatado imaginar un bot basado en IA que pueda adaptar perfectamente los ataques de ingeniería social a personas concretas. Todo lo que necesita es un actor de amenazas para ponerlo en marcha.
"Hemos llegado al punto en el que me preocupa", dice Carruthers. "Con muy pocas instrucciones, un modelo de IA puede escribir un mensaje de phishing dirigido solo a mí. Es aterrador".
Según el IBM X-Force Threat Intelligence Index de 2025, los actores de amenazas actuales persiguen, en promedio, campañas más grandes y más amplias que en el pasado. Esta evolución se debe en parte al cambio de tácticas, ya que muchos atacantes han pasado a centrarse en los ataques a la cadena de suministro, que afectan a muchas víctimas a la vez.
Pero también es cuestión de cambiar las herramientas. Muchos atacantes han adoptado la IA generativa como interno o asistente, utilizándola para crear sitios web, generar código malicioso e incluso escribir correos electrónicos de phishing. De esta manera, la IA ayuda a los actores de amenazas a llevar a cabo más ataques en menos tiempo.
"Los modelos de IA están ayudando realmente a los atacantes a limpiar sus mensajes", afirma Carruthers. "Hacerlos más concisos, más urgentes, convertirlos en algo que encante a más personas".
Carruthers señala que la mala gramática y los gazapos figuran desde hace tiempo entre las señales de alarma más comunes en los intentos de suplantación de identidad. Los ciberdelincuentes tienden a no ser asiduos con la corrección ortográfica y, a menudo, escriben en un segundo y tercer idioma, lo que provoca un mayor volumen de errores en general.
Pero las herramientas de IA generativa pueden generar una prosa técnicamente perfecta en prácticamente todos los principales idiomas del mundo, ocultando algunas de las señales de ingeniería social más obvias y engañando a más víctimas.
La IA también puede escribir esos mensajes mucho más rápido que una persona. Carruthers y el equipo de X-Force hicieron algunos experimentos y descubrieron que la IA generativa puede escribir un correo electrónico de phishing eficaz en cinco minutos. Un equipo humano tarda unas 16 horas en redactar un mensaje similar, y gran parte de ese tiempo se dedica a investigar a fondo los objetivos.
Considere también que la tecnología deepfake permite a los modelos de IA crear imágenes, audio e incluso videollamadas falsas, lo que da más credibilidad a sus artimañas.
Solo en 2024, los estadounidenses perdieron 12 500 millones de dólares en ataques de phishing y otros fraudes. Ese número podría aumentar a medida que más estafadores utilicen la IA generativa para crear mensajes de phishing más convincentes, en más idiomas y en menos tiempo.
Y con la llegada de los agentes de IA, los estafadores pueden escalar aún más sus operaciones.
La investigación suele marcar la diferencia entre un ciberataque fallido y uno exitoso. Al investigar sus objetivos (organizaciones o individuos), los actores de amenazas pueden elaborar planes perfectamente adaptados, redactar historias que toquen las fibras sensibles de manera experta y desarrollar malware que aproveche las vulnerabilidades correctas.
Y los atacantes pueden encontrar gran parte de la información que necesitan en línea.
"Puede aprender mucho sobre una persona con solo mirar sus redes sociales, el sitio web de la empresa, en cualquier lugar de la web abierta, en realidad", dice Carruthers. "Hay tanta información que la gente pone en entradas de blogs, comunicados de prensa, medios de comunicación e incluso ofertas de empleo".
Las ofertas de empleo son un buen ejemplo de cómo los atacantes pueden utilizar información aparentemente inocua contra sus víctimas.
"Al leer su oferta de trabajo, podría saber cómo es su pila tecnológica y quiénes son sus proveedores", explica Carruthers. "Ahora puedo personalizar mi malware para su entorno. Sé qué proveedores puedo fingir ser".
Expertos como Carruthers temen que con los agentes de IA, que pueden diseñar flujos de trabajo y utilizar herramientas para lograr objetivos complejos, los atacantes podrían automatizar algo más que correos electrónicos de phishing y sitios web falsos.
En teoría, los atacantes pueden utilizar agentes de IA para recopilar información, analizarla, formular un plan de ataque y generar mensajes fraudulentos y deepfakes para utilizarlos en el ataque.
Ese proceso va mucho más allá de generar variaciones del mismo mensaje de suplantación de identidad con diferentes estilos de escritura para diferentes objetivos. Se trata de una forma ampliada de spear phishing superdirigido, considerada la forma más eficaz de ingeniería social.
Los expertos en ciberseguridad han detectado agentes maliciosos de IA en la naturaleza en cantidades significativas, pero podría ser solo cuestión de tiempo. Una historia reciente de MIT Technology Review cita a Mark Stockley de Malwarebytes: "Creo que, en última instancia, vamos a vivir en un mundo en el que la mayoría de los ciberataques los llevan a cabo agentes. En realidad, solo es cuestión de lo rápido que lleguemos allí".
En la era de la IA generativa, muchas defensas tradicionalmente fiables contra los ataques de ingeniería social ya no funcionan.
"Lo primero que enseñamos a nuestros empleados es a tener cuidado con la mala gramática, los errores tipográficos, ese tipo de cosas", dice Carruthers. "Eso ya no es algo para los atacantes sofisticados que utilizan IA".
Si estas señales de alarma estilísticas ya no funcionan, una opción es cambiar el enfoque de la formación de concienciación sobre seguridad hacia debates más sustanciales sobre las tácticas de ingeniería social.
Los ingenieros sociales se basan en gran medida en la suplantación de identidad, la desinformación y la manipulación emocional, como ya ha dicho Carruthers. Las estafas con IA pueden cometer menos errores ortográficos, pero siguen basándose en los mismos tropos y patrones que los ataques clásicos de ingeniería social. Si los empleados aprenden a detectar estas señales reveladoras, podrán prevenir más ciberdelitos.
Los ingenieros sociales se aprovechan de la psicología humana, como la curiosidad, el miedo, el deseo de ayudar y el deseo de encajar. Los estafadores calibran sus mensajes para despertar estas emociones: "Necesito que me envíe este dinero ahora mismo o va a pasar algo muy malo".
La mayoría de las interacciones legítimas en el lugar de trabajo conllevan una carga emocional mucho menor. Los trabajos pueden ser estresantes, los compañeros de trabajo pueden ser pasivo-agresivos y los jefes pueden ser exigentes. Pero la mayoría de la gente trata de mantener al menos un mínimo de cortesía.
Las solicitudes, incluso las urgentes, tienden a adoptar un tono más ecuánime: "¿puede asegurarse de que esta factura se pague hoy? Llegamos tarde debido a un error administrativo y no quiero molestar al proveedor".
Una petición significativa, entregada con una emoción intensa, debe ser una señal para detenerse y Think.
Los ingenieros sociales son narradores y tienden a apegarse a algunos ganchos argumentales probados y verdaderos. Algunos de las más comunes son las siguientes:
Soy su jefe y necesito su ayuda. No me haga ninguna pregunta.
Soy de proveedor de TI/ciberseguridad/tecnología, y su sistema está comprometido. Debemos actuar ahora.
Soy un proveedor y rescindiré el servicio de inmediato si no hace algo por mí.
Soy un agente de la ley o un funcionario del gobierno, y usted irá hoy a la cárcel si no paga esta multa.
Soy un completo desconocido, pero tengo una increíble oportunidad de inversión para usted.
Trabajo para Correos y ha habido un problema con la entrega de su paquete. Haga clic en este enlace para resolver el problema.
Trabajo con un servicio o marca de confianza y su cuenta ha sido pirateada. Actúe ya para solucionarlo.
Trabajo con un servicio o una marca de confianza y tenemos una oferta increíble para usted. Actúe ya para reclamarlo.
Dicho esto, los atacantes más astutos personalizan sus historias tanto como sea posible. En lugar de detenerse en una visión general de alto nivel, Carruthers recomienda que las organizaciones alineen su formación en seguridad para abordar específicamente los tipos de ciberamenazas a las que es más probable que se enfrenten sus empleados.
"Reevalúe qué aspecto tiene su formación de concienciación sobre seguridad en el contexto de los ataques que se están produciendo realmente en su organización hoy en día", afirma Carruthers. "¿Recibe algún tipo concreto de llamadas fraudulentas? Añada esas llamadas a su formación".
Además de reelaborar el contenido de la formación, Carruthers recomienda impartir la formación con más frecuencia. Hacerlo puede ayudar a que las lecciones se adhieran y mantener frescos los valiosos consejos en la mente de las personas, lo que aumenta las probabilidades de que realmente utilicen las medidas de seguridad que aprenden.
"Los empleados suelen ser los primeros en atacar para poner en peligro a toda una organización", afirma Carruthers. "Si les impartemos una hora de formación una vez al año, ¿es realmente suficiente?".
La gente puede detectar más ataques en curso si busca las señales de alarma. Pero pueden evitar que se produzcan algunos ataques limitando lo que publican.
"Es muy importante que tanto las personas como las organizaciones sean conscientes de lo que ponen en línea", dice Carruthers.
En términos de ingeniería social, el poder de la tecnología de IA y los LLM proviene de su capacidad para desenterrar y analizar grandes cantidades de información sobre objetivos. Si no se puede encontrar esa información, las herramientas de IA no pueden crear ataques personalizados, lo que les dificulta engañar a las víctimas, sin importar cuán limpia sea su prosa.
Carruthers señala que "evitar compartir demasiado" es un consejo común, pero este consejo a menudo se interpreta como "No publique información confidencial en línea". Sin embargo, los estafadores pueden incluso utilizar información no confidencial para que sus ataques sean más convincentes.
"Muchos puestos de trabajo presentan un poco de un organigrama: 'Este rol depende de este rol y tiene estos roles que dependen de él'", explica Carruthers. “Esa es una información valiosa. Tengo una idea de cómo es su organización. Sé qué títulos utilizar y qué papel debo asumir”.
Aunque las personas pueden mantener una configuración estricta de privacidad en sus cuentas de redes sociales, ese enfoque no es muy práctico para las organizaciones. Pero las empresas pueden ser más prudentes con lo que publican, como difuminar los distintivos de los empleados en las fotos.
"La mayoría de la gente no cree que sea gran cosa encontrar una foto de la placa de un empleado", dice Carruthers. "Desde el punto de vista de la ingeniería social, ahora puedo replicar el aspecto de esa identificación, lo que hace mucho más fácil entrar en un edificio al que no pertenezco".