Con la IA generativa, la ingeniería social se vuelve más peligrosa y más difícil de detectar

Rostro de una persona iluminado por el brillo de la pantalla de una computadora portátil

Autores

Matthew Kosinski

Staff Editor

IBM Think

Stephanie Carruthers

Chief People Hacker for IBM X-Force Red

"Si hay un trabajo que la IA generativa no puede robar, es el de estafador".

Así es como Stephanie Carruthers, Global Lead of Cyber Range y Chief People Hacker de IBM, recuerda sentirse en 2022. ChatGPT había llevado recientemente la inteligencia artificial generativa a la conciencia pública. Su combinación de habilidades lingüísticas inquietantemente humanas y una profunda base de conocimientos hizo que muchos se preguntaran cómo podría cambiar el mundo.

Y cómo podría cambiar sus trabajos. 

"Cuando se presentó por primera vez, la gente me preguntaba: '¿Tienes miedo de que la IA te quite el trabajo?'", dice Carruthers. “Pensé que no podía. Tendríamos que llegar al punto en que la IA realmente pudiera entender a una persona y construir una campaña personalizada contra ella antes de que eso sucediera”.

Como parte de IBM® X-Force, Carruthers ejecuta esquemas simulados de ingeniería social y ciberataques para ayudar a las empresas a fortalecer sus defensas contra la realidad. Los primeros modelos de IA generativa podían inventar algunas estafas de phishing bastante genéricas, pero no podían realizar los ataques sofisticados que causan daños graves. Esos esquemas requieren una investigación profunda, una planificación cuidadosa y pretextos muy específicos.  

Pero pueden pasar muchas cosas en dos años y medio. Hoy en día, muchos modelos de lenguaje de gran tamaño (LLM) pueden buscar en la web en tiempo real. Los agentes de IA, capaces de diseñar flujos de trabajo y realizar tareas de forma autónoma, pueden ir un paso más allá utilizando la información que descubren para fundamentar sus acciones.

Ya no parece una exageración imaginar un bot basado en IA que pueda adaptar perfectamente los ataques de ingeniería social a individuos específicos. Todo lo que necesita es un actor de amenazas para ponerlo en marcha. 

"Hemos llegado al punto que me preocupa", dice Carruthers. “Con muy pocas instrucciones, un modelo de IA puede escribir un mensaje de phishing destinado solo para mí. Eso es aterrador”.

Hombre mirando una computadora

Fortalezca su inteligencia de seguridad 


Adelántese cada semana a las amenazas con novedades e información sobre seguridad, IA y más con el boletín Think. 


El aprendiz de estafador

Según el IBM X-Force Threat Intelligence Index 2025, los actores de amenazas actuales persiguen, en promedio, campañas más grandes y más amplias que en el pasado. Este desarrollo es en parte una cuestión de cambiar las tácticas, ya que muchos atacantes han cambiado su enfoque hacia los ataques a la cadena de suministro que afectan a muchas víctimas a la vez.

Pero también es cuestión de cambiar las herramientas. Muchos atacantes han adoptado la IA generativa como pasante o asistente, utilizándola para crear sitios web, generar código malicioso e incluso escribir correos electrónicos de phishing. De esta manera, la IA ayuda a los actores de amenazas a llevar a cabo más ataques en menos tiempo. 

"Los modelos de IA realmente están ayudando a los atacantes a limpiar sus mensajes", dice Carruthers. “Hacerlos más concisos, hacerlos más urgentes, convertirlos en algo que encante a más personas”.

Carruthers señala que la mala gramática y las frases extrañas han estado durante mucho tiempo entre las señales de alerta más comunes en los intentos de phishing. Los delincuentes cibernéticos tienden a no ser asiduos con el corrector ortográfico y, a menudo, escriben en un segundo y tercer idioma, lo que genera un mayor volumen de errores en general.  

Pero las herramientas de IA generativa pueden generar una prosa técnicamente perfecta en prácticamente todos los principales idiomas del mundo, ocultando algunas de las revelaciones más obvias de la ingeniería social y engañando a más víctimas. 

La IA también puede escribir esos mensajes mucho más rápido que una persona. Carruthers y el equipo de X-Force realizaron algunos experimentos y descubrieron que la IA generativa puede escribir un correo electrónico de phishing eficaz en cinco minutos. Un equipo humano tarda unas 16 horas en redactar un mensaje similar, y gran parte de ese tiempo se dedica a investigar a fondo los objetivos. 

Considere también que la tecnología deepfake permite que los modelos de IA creen imágenes falsas, audio e incluso videollamadas, lo que otorga mayor credibilidad a sus esquemas.    

Solo en 2024, los estadounidenses perdieron 12.500 millones de dólares por ataques de phishing y otros fraudes. Ese número podría aumentar a medida que más estafadores empleen la IA generativa para crear mensajes de phishing más convincentes, en más idiomas y en menos tiempo. 

Y con la llegada de los agentes de IA, los estafadores pueden escalar aún más sus operaciones.

Armamento de la World Wide Web

La investigación a menudo marca la diferencia entre un ciberataque fallido y uno exitoso. Al investigar sus objetivos (organizaciones o individuos), los actores de amenazas pueden elaborar planes perfectamente personalizados, redactar historias que toquen las fibras sensibles de manera experta y desarrollar malware que aproveche las vulnerabilidades correctas.

Y los atacantes pueden encontrar gran parte de la información que necesitan en línea.

"Se puede saber mucho de una persona simplemente consultando sus redes sociales, el sitio web de la compañía o cualquier otro lugar de la Web", afirma Carruthers. "Hay tanta información que la gente pone en entradas en el blog, comunicados de prensa, medios de comunicación e incluso ofertas de trabajo".

Los puestos de trabajo son un buen ejemplo de cómo los atacantes pueden convertir información aparentemente inocua en contra de sus víctimas.

"Al leer su puesto de trabajo, podría saber cómo es su pila tecnológica y quiénes son sus proveedores", explica Carruthers. “Ahora puedo personalizar mi malware para su entorno. Sé de qué proveedores puedo fingir ser”.

A expertos como Carruthers les preocupa que con los agentes de IA, que pueden diseñar flujos de trabajo y utilizar herramientas para lograr objetivos complejos, los atacantes puedan automatizar más que correos electrónicos de phishing y sitios web falsos.

En teoría, los atacantes pueden usar agentes de IA para recopilar información, analizarla, formular un plan de ataque y generar mensajes fraudulentos y deepfakes para usar en el ataque. 

Ese proceso es mucho mayor que generar variaciones del mismo mensaje de phishing con diferentes estilos de redacción para diferentes objetivos. Se trata de una forma ampliada de phishing focalizado superdirigido considerada la forma más eficaz de ingeniería social.

Los expertos en ciberseguridad aún no han detectado un número significativo de agentes de IA maliciosos, pero podría ser cuestión de tiempo. En un artículo reciente del MIT Review se cita a Mark Stockley, de Malwarebytes, quien afirma: "Creo que, en última instancia, vamos a vivir en un mundo en el que la mayoría de los ciberataques los llevarán a cabo agentes. En realidad solo es cuestión de lo rápido que lleguemos".

Las señales de alerta de la ingeniería social impulsada por IA

En la era de la IA generativa, muchas defensas tradicionalmente confiables contra los ataques de ingeniería social ya no funcionan. 

"Lo primero que mostramos a nuestros empleados es a fijar en la mala gramática, las erratas y ese tipo de cosas", dice Carruthers. "Eso ya no existe para los atacantes sofisticados que emplean IA".

Si estas banderas rojas estilísticas ya no funcionan, una opción es cambiar el enfoque de la capacitación de concientización en seguridad a discusiones más sustantivas sobre tácticas de ingeniería social.

Los ingenieros sociales dependen en gran medida de la suplantación de identidad, la desinformación y la manipulación emocional, como Carruthers ha cubierto antes. Las estafas impulsadas por IA pueden cometer menos errores ortográficos, pero siguen dependiendo de los mismos tropos y patrones que los ataques clásicos de ingeniería social. Si los empleados aprenden a detectar estos signos reveladores, pueden frustrar más delitos cibernéticos. 

Bandera roja 1: emociones fuertes

Los ingenieros sociales se aprovechan de la psicología humana, como la curiosidad, el miedo, el deseo de ayudar y el deseo de encajar. Los estafadores calibran sus mensajes para despertar estas emociones: "Necesito que me envíe este dinero ahora mismo o va a pasar algo muy malo".

La mayoría de las interacciones legítimas en el lugar de trabajo tienen mucha menos carga emocional. Los trabajos pueden ser estresantes, los compañeros de trabajo pueden ser pasivo-agresivos y los jefes pueden ser exigentes. Pero la mayoría de la gente trata de mantener al menos un mínimo de cortesía.

Las solicitudes, incluso las urgentes, tienden a adoptar un tono más equilibrado: “Oye, ¿puedes asegurarte de que esta factura se pague hoy? Llegamos tarde debido a un error administrativo y no quiero molestar al proveedor”.

Una solicitud significativa, entregada con una emoción intensa, debe ser una señal para detenerse y Think.

Mixture of Experts | 28 de agosto, episodio 70

Decodificación de la IA: Resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el revuelo de la IA para ofrecerle las últimas noticias e insights al respecto.

Bandera roja 2: Parcelas recicladas

Los ingenieros sociales son narradores de historias y tienden a apegar a unos pocos ganchos de trama probados y verdaderos. Algunos de los más comunes incluyen:

  • Soy tu jefe y necesito tu ayuda. No me hagas ninguna pregunta.

  • Pertenezco a un proveedor de tecnología de TI/ciberseguridad, y su sistema está comprometido. Tenemos que movernos ahora.

  • Soy un proveedor y cancelaré el servicio de inmediato si no hacen algo por mí. 

  • Soy agente de la ley o funcionario del gobierno, y hoy irá a la cárcel si no paga esta multa.

  • Soy un completo desconocido, pero tengo una increíble oportunidad de inversión para usted.

  • Trabajo en el servicio postal y hubo un problema con la entrega de su paquete. Haga clic en este enlace para resolver el problema. 

  • Trabajo con un servicio o marca de confianza y su cuenta ha sido pirateada. Actúe ya para arreglarlo. 

  • Estoy con un servicio o marca en la que confía, y tenemos una oferta increíble para usted. Actúe ahora para reclamarlo.

Dicho esto, los atacantes más astutos personalizan sus historias tanto como sea posible. En lugar de detenerse en una visión general de alto nivel, Carruthers recomienda que las organizaciones alineen su formación en seguridad para abordar específicamente los tipos de ciberamenazas a las que es más probable que se enfrenten sus empleados.

“Reevalúe cómo es su capacitación de concientización sobre seguridad en el contexto de los ataques que realmente están ocurriendo en su organización hoy”, dice Carruthers. “¿Están recibiendo tipos específicos de llamadas telefónicas fraudulentas? Incorpore esas llamadas a su entrenamiento”.

Además de reelaborar el contenido de la capacitación, Carruthers recomienda impartir capacitación con más frecuencia. Hacerlo puede ayudar a que las lecciones se mantengan y mantener frescos los valiosos consejos en la mente de las personas, lo que aumenta las probabilidades de que realmente utilicen las medidas de seguridad que aprendieron.  

"Los empleados suelen ser atacados primero para comprometer a toda una organización", dice Carruthers. "Si les damos una hora de capacitación una vez al año, ¿es eso realmente suficiente?"

Piense antes de publicar

Las personas pueden detectar más ataques en curso buscando las señales de alerta. Pero pueden evitar que se produzcan algunos ataques limitando lo que publican. 

"Es muy importante que tanto las personas como las organizaciones sean conscientes de lo que publican en línea", afirma Carruthers.

En términos de ingeniería social, el poder de la tecnología de IA y los LLM proviene de su capacidad para desenterrar y analizar grandes cantidades de información sobre objetivos. Si no se puede encontrar esa información, las herramientas de IA no pueden crear ataques personalizados, lo que les dificulta engañar a las víctimas, sin importar cuán limpia sea su prosa.

Carruthers señala que "evitar compartir demasiado" es un consejo común, pero este consejo a menudo se interpreta como "No publique información confidencial en línea". Sin embargo, los estafadores pueden incluso utilizar información no confidencial para que sus ataques sean más convincentes.  

"Muchas ofertas de empleo presentan un poco de organigrama: 'Este rol reporta a este rol, y tiene estos roles reportando a él'", explica Carruthers. "Es una información valiosa. Tengo una idea de cómo es su organización. Sé qué títulos usar y qué papel debo fingir que tengo".

Aunque las personas pueden mantener una configuración estricta de privacidad en sus cuentas de redes sociales, ese enfoque no es muy práctico para las organizaciones. Pero las empresas pueden ser más prudentes con lo que publican, como difuminar los distintivos de los empleados en las fotos.

"La mayoría de la gente no cree que sea gran cosa encontrar una foto de la placa de un empleado", dice Carruthers. "Desde el punto de vista de la ingeniería social, ahora puedo replicar el aspecto de esa identificación, lo que hace mucho más fácil entrar en un edificio al que no pertenezco".

Soluciones relacionadas
IBM X-Force

El equipo de hackers centrado en amenazas, personal de respuesta, investigadores y analistas de IBM X-Force ayuda a proteger su organización de amenazas globales.

    Explorar IBM X-Force
    Soluciones de detección y respuesta a amenazas

    Las soluciones de detección y respuesta a amenazas de IBM fortalecen su seguridad y aceleran la detección de amenazas.

      Explorar las soluciones de detección de amenazas
      Servicios de pruebas de penetración X-Force Red

      IBM X-Force Red proporciona servicios de pruebas de penetración para aplicaciones, redes, hardware y personal para descubrir y arreglar vulnerabilidades.

      Conozca los servicios de pruebas de penetración
      Dé el siguiente paso

      Descubra IBM X-Force Red, que proporciona servicios de pruebas de penetración para aplicaciones, redes, hardware y personal para descubrir y solucionar vulnerabilidades.

      Conozca los servicios de pruebas de penetración Agende una sesión de descubrimiento con X-Force