Imagine pedir comida para una cena, pero el robot de entrega que transporta su comida se queda varado porque no puede navegar por las aceras irregulares de su vecindario. O porque su sistema GPS no está equipado para encontrar desvíos alrededor de un cierre de carretera cercano.
O peor aún, el robot llega pero falta su comida: los delincuentes cibernéticos piratearon los protocolos de autenticación del servicio de entrega y tomaron su comida (y sus datos personales).
Sin pruebas avanzadas y prácticas de seguridad que coincidan con los entornos de software actuales y las amenazas de ciberseguridad, los equipos de DevOps y los usuarios finales que confían en sus productos podrían encontrar estos problemas con mayor frecuencia. Muchos clientes se frustrarían y se mudarían a otro servicio de entrega (a nadie le gusta tener hambre inesperadamente), y el negocio sentiría el impacto de esa frustración en sus resultados finales.
Las herramientas de IA agéntica pueden ayudar al equipo de desarrollo del servicio de entrega a evitar estos problemas. Por ejemplo, el equipo podría usar agentes para crear un suite integral que identifica fallas y vulnerabilidades de seguridad durante la programación, mucho antes de que los robots de entrega recojan su primer pedido.
De hecho, las herramientas de IA agéntica pueden usar “equipos” de múltiples agentes para crear gemelos digitales de alta fidelidad que simulan desafíos del mundo real que los robots podrían enfrentar, lo que permite a los desarrolladores probar el comportamiento del código y las interacciones de dependencia antes de comenzar a programación. Esto constituye un “desplazamiento a la izquierda”, que traslada las prácticas de pruebas y control de calidad a una etapa más temprana del ciclo de vida del desarrollo de software.
Con la complejidad de los sistemas de software modernos y la demanda de mayor agilidad y colaboración, ese enfoque en la detección temprana evolucionó hacia la práctica más integral de DevSecOps de "desplazarse a todas partes". Un enfoque de desplazamiento a todas partes tiene como objetivo “automatizar la integración de la seguridad y las prácticas de seguridad en cada fase del ciclo de vida del desarrollo de software”.
Esta es una gran tarea, práctica y culturalmente, que ha llevado a muchas empresas a explorar más a fondo cómo pueden aprovechar las capacidades de la IA en las prácticas de DevOps. Entre las tecnologías más nuevas se encuentra la IA agéntica, que puede:
Las herramientas de IA agéntica también tienen capacidades de toma de decisiones autónomas, y las empresas están entusiasmadas con las posibilidades.
Según el IBM Institute for Business Value (IBM IBV), "el 86 % de los ejecutivos dice que para 2027, los agentes de IA harán que la automatización de procesos y la reinvención del flujo de trabajo sean más eficaces". Casi el 80 % de los altos ejecutivos ya han adoptado alguna forma de IA agéntica en sus empresas, y el 19 % de las empresas están desplegando IA agéntica a escala.
Los agentes inteligentes de IA ahora pueden orquestar el desarrollo, el despliegue, el monitoreo y las actualizaciones de software. Pueden hacer que las prácticas de desplazarse a la izquierda y desplazarse a todas partes sean más manejables para los desarrolladores sobrecargados, que pueden no siempre tener el ancho de banda para probar y proteger exhaustivamente el software antes de desplegarlo.
Boletín de la industria
Manténgase al día sobre las tendencias más importantes e intrigantes de la industria sobre IA, automatización, datos y más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
El "desplazamiento a la izquierda" es la práctica estratégica de trasladar tareas, como pruebas, identificación y resolución de problemas y seguridad, a etapas anteriores del ciclo de vida del desarrollo de software. Permite a los equipos descubrir problemas (idealmente) durante la programación, en lugar del despliegue. El término proviene de visualizar el proceso de desarrollo de izquierda (programación) a derecha (despliegue), por lo que entretejer actividades críticas en la fase de programación equivale a desplazarlas hacia la izquierda en el ciclo de vida.
Sin embargo, los enfoques de desplazamiento a la izquierda pueden ser difíciles de aplicar y mantener, porque trasladan a los desarrolladores responsabilidades adicionales que normalmente podrían realizar especialistas y expertos en la materia.
En este cambio, los desarrolladores y otros miembros del equipo deben adoptar las tareas de prueba, seguridad, gestión de problemas y colaboración entre equipos como parte habitual de su carga de trabajo. Agregar tales responsabilidades sin reducir la carga de trabajo puede reducir la cantidad de tiempo que los desarrolladores dedican a escribir código de alta calidad y resolver problemas de programación.
Aunque la IA agéntica sigue siendo una tecnología nueva (con sus propios desafíos de adopción), puede ayudar a los equipos a abordar las dificultades asociadas con las implementaciones de desplazamiento a la izquierda, especialmente aquellas que afectan la productividad de los desarrolladores.
Además, los agentes pueden ser especialmente útiles para las empresas que hacen la transición a un enfoque de "desplazamiento a todas partes". Mientras que el desplazamiento a la izquierda se centra en integrar la seguridad y las pruebas en una etapa más temprana del ciclo de vida del desarrollo, el desplazamiento a todas partes significa incorporar seguridad, monitoreo y pruebas en cada fase, incluyendo la programación, la construcción, el despliegue y el tiempo de ejecución. El objetivo es proteger cada aplicación, cada tecnología y cada despliegue a lo largo del ciclo de vida.
“El desplazamiento a todas partes resuena más con la complejidad de los sistemas de software modernos y la necesidad de compartir la responsabilidad entre equipos y etapas”, dice Billy O'Connell, desarrollador de software y DevOps de IBM. “Pero lo que realmente estamos viendo es un modelo híbrido emergente, uno que toma prestado los mejores elementos de cada enfoque. Se trata de usar las herramientas y la mentalidad adecuadas para el contexto correcto”.
IA agéntica es "un sistema de inteligencia artificial que puede lograr un objetivo específico bajo poca supervisión". Los agentes de IA utilizan modelos de lenguaje grandes (LLM), procesamiento de lenguaje natural (NLP) y machine learning (ML) para diseñar sus propios flujos de trabajo, realizar tareas y ejecutar procesos en nombre de los usuarios y otros sistemas.
En un sistema de IA agéntica, varios agentes de IA coordinan sus esfuerzos para orquestar o realizar tareas complejas y asumir objetivos más grandes de los que cualquier agente de IA podría manejar.
Los agentes de IA amplían la automatización mucho más allá de los scripts predefinidos. A diferencia de los chatbots y otros modelos de IA, que operan dentro de restricciones predefinidas y requieren intervención humana, los agentes de IA y la IA agéntica son autónomos, impulsados por el contexto y los objetivos, y adaptables a circunstancias cambiantes. No solo completan tareas, sino que también aprenden del pasado, se adaptan al presente y predicen el futuro.
El uso de la IA agéntica requiere que los líderes empresariales, los equipos de producto y los ingenieros establezcan de manera colaborativa objetivos de alto nivel y establezcan parámetros, por lo que los agentes de IA no pueden (y no deben) operar sin ninguna participación humana. Por el contrario, los agentes de IA permiten prácticas de desarrollo human-in-the-loop, donde los agentes trabajan junto con los ingenieros y equipos de DevOps para ayudar a los seres humanos a alcanzar los objetivos más rápido.
En esencia, los humanos definen el qué y los agentes descubren el cómo planificando y ejecutando las acciones necesarias para alcanzar esos objetivos dentro de los parámetros proporcionados.
Las empresas recurren cada vez más a los sistemas de IA agéntica para administrar, optimizar y acelerar los procesos de DevOps y mejorar las canalizaciones de integración continua/entrega continua (CI/CD).
Los agentes pueden, por ejemplo, hacer comentarios sobre los cambios de código en busca de errores de sintaxis, hacer sugerencias de refactorización y Verify las correcciones antes de que los cambios se integren con el código base. También pueden acelerar la innovación. “[Los agentes] permiten la creación rápida de prototipos de ideas que he querido implementar durante mucho tiempo. Ya sea para la productividad personal o la eficiencia del equipo, la IA agéntica ayuda a convertir los conceptos en herramientas utilizables, lo que reduce la carga de las tareas mundanas”, dice O'Connell.
La IA agéntica es útil para una variedad de casos de uso, pero analicemos cuatro procesos principales con más detalle.
Las herramientas de IA agéntica exploran continuamente datos de observabilidad (como métricas, registros y trazas) y otros flujos de datos (como señales de feedback de usuarios) de una variedad de fuentes en tiempo real.
Este proceso incluye la consulta de bases de datos, registros de procesos, datos históricos y dependencias de código abierto, y la conexión a interfaces de programación de aplicaciones (API) para identificar y llenar vacíos de datos. Suponiendo que los datos externos están dentro de sus parámetros, los agentes también incorporan datos del mercado y de la industria para enriquecer su concientización del contexto antes de formular hipótesis o enviar notificaciones a los equipos de TI.
Mediante las capacidades de machine learning (ML), los agentes identifican patrones de datos y estructuras de enlaces, aprendiendo lo que constituye el comportamiento normal del sistema, ajustándose dinámicamente a lo largo del tiempo y rastreando las desviaciones de las líneas base establecidas.
Las herramientas de IA agéntica están equipadas para detectar varios tipos de anomalías, ya sean puntos de datos irregulares individuales, clúster de datos anormales o anomalías contextuales (disminuciones repentinas en el tráfico del sitio de comercio electrónico el viernes negro, por ejemplo). También pueden ajustar de manera autónoma las líneas de base a medida que cambian las condiciones e identificar relaciones ocultas y multidimensionales que podrían requerir más investigación.
Para completar el mismo proceso con un modelo de IA tradicional y estático, los desarrolladores tendrían que volver a entrenar manualmente la herramienta de IA a medida que cambian las líneas base, lo que aumenta la probabilidad de que se produzcan falsos positivos o negativos.
De hecho, los modelos estáticos tienden a requerir más entrada humana y ajuste en todas las funciones.
Se basan en reglas predeterminadas y comprobaciones estadísticas más sencillas que pueden ocultar relaciones complejas entre variables. Esta ambigüedad obliga a los desarrolladores a correlacionar manualmente los datos y definir las relaciones. Y dado que los modelos estáticos de IA a menudo carecen de la sensibilidad al contexto de los modelos de IA agéntica, tienden a tratar todas las anomalías por igual, dejando a los desarrolladores la tarea de clasificar los problemas.
Las herramientas de pruebas de IA agéntica pueden generar casos de prueba más inteligentes y personalizados, ampliando la cobertura de las pruebas en todo el entorno.
IA agéntica analiza el código fuente de la aplicación, la estructura de la interfaz de usuario (IU), los requerimientos de software, los flujos de usuario, las respuestas de API, el historial de defectos y los artefactos de prueba existentes para comprender y decidir qué pruebas ejecutar. Los desarrolladores también pueden crear escenarios (“el cliente agrega artículos de comida al carrito y los cheques”, por ejemplo) y hacer que los agentes de IA los conviertan en scripts de prueba procesables para identificar cualquier problema que pueda surgir en el proceso de ejecutar un conjunto específico de acciones.
Las herramientas de IA agéntica adaptan continuamente las pruebas de software en tiempo real, aprendiendo de las pruebas anteriores e implementando protocolos de prueba basados en resultados anteriores y la criticidad de la misión. Estas características ayudan a garantizar que las pruebas sean oportunas y que la cobertura sea específica (pero completa).
Cuando los desarrolladores cambian la lógica del código o actualizan la interfaz de usuario, por ejemplo, los agentes pueden detectar los cambios durante las ejecuciones de prueba y actualizar automáticamente las pruebas relevantes. Si un fragmento de código tiene una vulnerabilidad de seguridad o utiliza un patrón de código o una construcción de lenguaje inusuales, las herramientas de IA agéntica pueden recomendarlo para pruebas locales o unitarias, aislando el código y probándolo más para identificar el problema.
De hecho, una vez que los agentes de IA entienden lo que debe hacer una aplicación, pueden generar scripts de prueba y casos antes de que los desarrolladores escriban el código, para que los equipos de desarrollo puedan centrarse en la calidad del código.
Las características de correlación asistidas por IA agéntica vinculan alertas relacionadas entre usuarios, entornos y endpoints, analizando alertas significativas de señales superfluas, reduciendo el volumen de alertas y la fatiga alerta para los equipos de desarrollo y Operaciones.
Un componente clave del desplazamiento a la izquierda en la correlación de alertas es la incorporación de inteligencia en la fuente, es decir, utilizar agentes para analizar flujos de datos sin procesar a medida que llegan los datos. Este enfoque permite la correlación en tiempo real y ayuda a los equipos a moverse de una posición reactiva a una estrategia proactiva de correlación y corrección.
Los sistemas de IA agéntica utilizan sofisticados algoritmos de machine learning (ML) para analizar datos de alerta históricos y en tiempo real, correlacionando puntos de datos en función del momento, la fuente, el tipo de evento, los sistemas afectados y los patrones de comportamiento, entre otros atributos.
Los agentes recopilan dinámicamente el contexto (incluidas direcciones IP, identificaciones de usuario y estado del dispositivo) en torno a cada alerta. Con los datos enriquecidos, los agentes pueden mapear incidentes e identificar puntos en común. Por ejemplo, si el agente detecta un intento fallido de inicio de sesión a una hora inusual y un acceso irregular a archivos desde la misma cuenta, puede correlacionar los puntos de datos e indicar un posible intento de violación.
Una vez que se agrupa un conjunto de alertas, el agente las presenta como una unidad. Un evento que podría haber generado dos alertas separadas, una para el intento de inicio de sesión y otra para el acceso al archivo, solo creará y enviará una alerta (para la filtración) al desarrollador. Y en lugar de enviar y clasificar notificaciones exhaustivas de eventos individuales, los equipos de TI pueden activar acciones y flujos de trabajo de corrección contra todo el grupo de señales.
Además, los agentes de IA pueden construir historias completas de incidentes. Si una característica falla, los agentes pueden rastrear las causas principales y el rendimiento de característica a lo largo del tiempo, creando un informe completo que el personal de TI puede usar para dar dirección al problema. Los agentes también pueden "recordar" los detalles del bloqueo, lo que permite a los desarrolladores simular las condiciones en futuras rondas de pruebas y encontrar fallas en el código en nuevas iteraciones o aplicaciones.
Los sistemas de IA agéntica ayudan a automatizar la detección de vulnerabilidades, las pruebas de explotabilidad, análisis de causa principal y la resolución de amenazas durante el proceso de programación, para que los desarrolladores puedan preocuparse menos por las revisiones de código manuales.
Los agentes de IA no esperan alertas de seguridad. Por el contrario, continuamente cazan comportamientos sospechosos mediante el análisis de registros de seguridad, tráfico de red, código fuente y fuentes de inteligencia de amenazas en tiempo real. Luego pueden generar hipótesis sobre amenazas potenciales, probarlas con registros y escalar solo las amenazas creíbles, perfeccionando su comprensión con el tiempo.
A diferencia de los modelos estáticos de IA que marcan problemas basados solo en reglas preestablecidas, los agentes de IA evalúan la gravedad y la explotabilidad de las vulnerabilidades de seguridad observando el contexto (activo, exposición de la red, patrones de ataque conocidos, posibles vectores de ataque, entre otras métricas).
Cuando se encuentra una vulnerabilidad, los agentes pueden priorizarla automáticamente en función del tiempo de ejecución, el impacto en el negocio y el contexto de cumplimiento, e iniciar de forma autónoma playbooks para arreglar el problema.
Mediante análisis predictivos y aprendizaje supervisado, las herramientas de IA agéntica también pueden simular ataques en entornos aislados para probar si las vulnerabilidades son explotables.
Los sistemas multi-agente pueden analizar las descripciones de vulnerabilidades y el código fuente correspondiente para generar ataques de prueba de concepto que demuestren el riesgo real de explotación. Cuando localizan un fragmento de código problemático, los agentes pueden crear un ataque que desencadena la vulnerabilidad, permitiendo a los desarrolladores ver exactamente dónde ocurrió el problema, por qué ocurrió y cómo afecta el rendimiento del software.
Tomemos como ejemplo el robot de reparto de comida. Un enfoque basado en IA agéntica permitiría a los desarrolladores simular un ciberataque durante (o incluso antes) de la programación, descubrir que un fragmento de código particular es vulnerable a ataques de intermediario y corregir el código antes de que el robot sea lanzado a un entorno real.
La IA agente se está convirtiendo en una herramienta transformadora para muchas empresas y equipos de DevOps, pero sigue siendo una tecnología nueva que presenta desafíos nuevos y en evolución. Si bien muchos líderes empresariales siguen siendo optimistas, Gartner anticipa que el aumento de los costos, la gestión de riesgos insuficiente y el retorno de la inversión (ROI) poco claro harán que las compañías cancelen más del 40 % de todos los proyectos de IA agéntica para 2027.
Gran parte de la preocupación gira en torno a problemas de seguridad y confianza de los agentes. Es cierto que la IA agéntica puede optimizar y mejorar la seguridad del software y de la red, pero también plantea riesgos de seguridad significativos.
IA agéntica permite a los desarrolladores crear y desplegar agentes personalizados autónomos que operan de forma independiente a través de sistemas y procesos. Muchos de estos agentes se crean y ejecutan sin visibilidad formal de TI, seguridad o gobernanza. Esta proliferación descentralizada y sin control de agentes puede crear "IA en la sombra" dentro de las organizaciones y los pipelines de DevSecOps.
Con agentes que actúan de manera autónoma, las empresas también pueden tener dificultades para mantener los controles humanos en el bucle. Si a los agentes de IA se les permite operar sin una responsabilidad clara, puede resultar extremadamente difícil evaluar su intención, validar sus acciones o aplicar políticas de seguridad de manera efectiva, especialmente a medida que los entornos se expanden. Después de todo, ¿quién es el responsable cuando una herramienta autónoma comete un error o viola sus parámetros?
Algunos argumentan que los creadores, y las organizaciones que los empoderan, tienen la culpa de los datos de entrenamiento deficientes, las pruebas insuficientes o la falta de salvaguardas. Pero siendo realistas, el panorama puede ser mucho más turbio.
Las herramientas de IA agéntica también dependen en gran medida de las API para acceder a los datos, desplegar flujos de trabajo y conectarse con servicios externos, y cada integración de API es un posible punto de entrada para los atacantes. Debido a que los agentes no siempre siguen patrones predecibles de uso de API (después de todo, son autónomos), pueden exponer inadvertidamente datos confidenciales o de propiedad exclusiva a través de operaciones legítimas (incluida la información personal en archivos de registro, por ejemplo) y ampliar significativamente la superficie de ataque.
Un único endpoint de API comprometido o mal configurado puede otorgar acceso a múltiples sistemas backend y conjuntos de datos confidenciales, lo que permite a los delincuentes cibernéticos moverse lateralmente dentro de la arquitectura y escalar sus privilegios.
Además, la mayoría de los agentes de IA se ejecutan en LLM, por lo que pueden heredar vulnerabilidades del modelo subyacente. Si un atacante incrusta instrucciones maliciosas en instrucciones o fuentes de datos confiables (como archivos de configuración, documentación o tickets de soporte), el agente podría, sin saberlo, ejecutar acciones dañinas cuando procesa la instrucción.
Es posible que las empresas también deseen considerar los desafíos de la IA agéntica que no están relacionados con la seguridad. Por ejemplo, los agentes autónomos a veces pueden alucinar los pasos de construcción o los detalles de configuración, inventando parámetros que desencadenan acciones accidentales o maliciosas.
Las alucinaciones ocurren cuando un modelo de lenguaje (a menudo un chatbot de IA generativa o herramienta de visión artificial) genera información incorrecta, o completamente inventada, que parece plausible. Durante la presentación del chatbot Bard de Google, Bard afirmó que el telescopio espacial James Webb tomó las primeras imágenes de un exoplaneta. Esto era inexacto: la primera imagen de exoplanetas fue tomada años antes por un telescopio diferente. Este es un ejemplo relativamente benigno.
Cuando los agentes utilizan detalles alucinados en los flujos de trabajo de DevOps, pueden propagar silenciosamente los errores a través del código base y los pipelines de automatización, donde agravan y provocan fallas en cascada.
Las herramientas de IA agéntica también tienen un rendimiento inferior cuando se trata del desarrollo de código. Un estudio mostró que los desarrolladores tardan casi un 20 % más en resolver problemas de código cuando usan IA. Y el informe State of Software Delivery 2025 reveló que los desarrolladores dedican un 67 % más de tiempo a depurar el código generado por las herramientas de IA. Muchos equipos de desarrollo no pueden mantenerse al día con la escala de fallas de código generadas por IA, lo que significa que los agentes de IA a veces crean más deuda técnica de la que borran.
Si bien los desafíos asociados con el uso de herramientas de IA agéntica son sustanciales, las puertas de enlace de IA pueden ayudar a mitigar algunos de los riesgos.
Las puertas de enlace de IA actúan como una capa unificada y ligera entre las aplicaciones de IA agéntica y los modelos, API y herramientas que utilizan. Las puertas de enlace aplican políticas de gobernanza y cumplimiento de manera coherente en todos los agentes de IA y herramientas DevOps del ecosistema, eliminando la aplicación de parámetros fragmentados e incoherentes.
La centralización agiliza el proceso de implementación de protocolos de seguridad, restricciones de privacidad de datos y cumplimiento normativo a través de despliegues complejos y distribuidos. También ayuda a los agentes a controlar mejor el acceso a las API, los procesos de autenticación y autorización.
Además, las puertas de enlace pueden ayudar a los agentes a descubrir amenazas y problemas de código antes al mejorar la visibilidad de la actividad del agente. Proporcionan un aparato cohesivo de monitoreo, auditoría, detección de anomalías y trazabilidad para que se pueda rastrear el comportamiento del agente durante todo el ciclo de vida. Debido a que las puertas de enlace de IA hacen que la IA agéntica sea más observable, también ayudan a las compañías a controlar los problemas de la IA en la sombra y los costos descontrolados que puede crear el despliegue de la IA agéntica.
A la pregunta de si los beneficios de la IA agéntica compensan los riesgos, O'Connell responde: "100 %. A medida que las compañías empiecen a integrar la IA agéntica, será esencial contar con barreras, no sólo técnicas, sino también culturales y éticas. Pero solo estamos a las puertas de lo posible".
Si bien persisten los desafíos en torno a la gobernanza, la confianza y la integración, la trayectoria es clara: los agentes de IA no son solo un complemento de DevOps y los pipelines de CI/CD, sino que están dando forma a su futuro. El resultado no es solo una toma de decisiones más inteligente, sino un cambio cultural hacia una entrega de software más eficiente y adaptable.
Automatice la entrega de software para cualquier aplicación on premises, en la nube o en el mainframe.
Utilice el software y las herramientas de DevOps para crear, desplegar y gestionar aplicaciones nativas de la nube en múltiples dispositivos y entornos.
Desbloquee nuevas capacidades e impulse la agilidad empresarial con los servicios de IBM de asesoramiento sobre la nube. Descubra cómo crear conjuntamente soluciones, acelerar la transformación digital y optimizar el rendimiento a través de estrategias de nube híbrida y asociaciones de expertos.