Vista aérea del sitio de construcción

Gestión de datos agénticos: la próxima evolución de los ecosistemas de datos empresariales

Los agentes de IA están por todas partes. Estos sistemas realizan tareas de forma autónoma con intervención humana limitada, a menudo de formas que apenas notamos.

Considere los vehículos autónomos: detectan su entorno, evalúan el contexto y toman decisiones en una fracción de segundo en tiempo real. Navegan no porque alguien haya programado todos los escenarios posibles, sino porque interpretan continuamente las señales y se adaptan a medida que cambia el entorno.

Ahora imagine llevar ese mismo nivel de inteligencia a un programa de datos empresarial. Miles de conjuntos de datos. Millones de registros. Se toman miles de millones de decisiones basadas en datos.

La gestión de datos agénticos (ADM) hace posible este nivel de orquestación. Gracias a la capacidad de toma de decisiones de los agentes impulsados por IA, las empresas están empezando a reinventar la forma en que procesan, gestionan y utilizan sus datos.

¿Qué es la gestión de datos agénticos?

La gestión de datos agénticos utiliza agentes de IA para coordinar y optimizar todo el programa de datos empresariales.1 Esto incluye:

En lugar de depender de flujos de trabajo rígidos, la ADM emplea agentes especializados para llevar inteligencia a cada etapa del ciclo de vida de los datos. El sistema puede interpretar la intención, determinar qué datos y políticas están involucrados y adaptar las operaciones automáticamente a medida que cambian las condiciones.

Muchas de estas capacidades son posibles gracias a los modelos de lenguaje grandes (LLM), que proporcionan la capa de razonamiento dentro de los agentes. Los LLM usan procesamiento de lenguaje natural para interpretar la intención y traducirla en una estrategia de datos coordinada, similar a cómo herramientas como ChatGPT o Google Gemini interpretan las instrucciones. Se basan en metadatos, linaje de datos, machine learning y reglas de negocio para determinar qué datos son relevantes, cómo se deben validar y gobernar, y cómo se deben preparar para analytics posteriores.

A partir de ahí, el sistema agéntico describe los pasos necesarios para completar la tarea de datos. Esto puede implicar acceder a fuentes, aplicar políticas, optimizar cargas de trabajo, gestionar comportamientos de almacenamiento y, en última instancia, producir resultados confiables.

Lo que distingue a la gestión de datos agénticos de la gestión de datos tradicional es que se adapta a sí misma y evoluciona en función del contexto. Aprende continuamente de las señales y se ajusta a medida que cambian las condiciones en lugar de tratar los flujos de trabajo como artefactos fijos.

Por ejemplo, un gerente de la cadena de suministro podría proporcionar la instrucción “monitorear las fuentes entrantes y resolver los registros duplicados a medida que aparecen”. Conforme llegan nuevos pedidos, el sistema impulsado por IA interpreta la intención y adapta su plan en tiempo real, fusionando registros, marcando incongruencias y delegando tareas a los agentes a medida que cambian las condiciones.

Aunque aún es un enfoque emergente, las organizaciones ya están usando la ADM para mejorar la confiabilidad de sus datos y la eficiencia operativa mediante:

  • Calidad y validación de datos automatizadas: detectar la deriva de datos, las incongruencias y los cambios inesperados a medida que los datos se mueven por toda la organización.
  • Integración de datos de autoservicio: convertir las solicitudes de integración en lenguaje natural en pipelines gobernados y listos para usar.
  • Cumplimiento para los datos en movimiento: garantizar que los datos se mantengan conforme a las normas a medida que se mueven, utilizando protecciones de observabilidad continua para hacer cumplir los requisitos de calidad, linaje y normativos.
  • Enriquecimiento sensible al contexto: actualizar las clasificaciones y atributos a medida que evoluciona la lógica empresarial.

Por qué es importante ahora la gestión de datos agénticos

Las empresas están generando más datos en más sistemas que nunca. Sin embargo, a medida que aumentan los volúmenes y las arquitecturas se vuelven cada vez más híbridas y distribuidas, muchas organizaciones siguen teniendo dificultades para convertir esos datos complejos en insights confiables y en tiempo real. De hecho, el 76 % de las empresas admite que ha tomado decisiones sin consultar datos porque era demasiado difícil acceder.

Los enfoques tradicionales de gestión de datos dependen en gran medida de la intervención manual y humana, lo que los hace lentos a la hora de adaptarse cuando cambian los esquemas, evolucionan las métricas o se modifica la lógica operativa. La gestión de datos agénticos está ganando impulso porque aborda varias presiones sistémicas que los enfoques existentes no pueden seguir:

Complejidad creciente y arquitecturas fragmentadas

La nube híbrida, la multinube y los data warehouses distribuidos crean cadenas de dependencia que son difíciles de mantener. Los procesos manuales tienen dificultades para escalar cuando los conjuntos de datos y las interfaces de programación de aplicaciones (API) evolucionan a diario.

El alto costo de los datos de baja calidad

La mala calidad de los datos conlleva un costo: KPI falsos, pronósticos desalineados y datos de clientes desactualizados que afectan a los sistemas posteriores. Los riesgos se agravan, particularmente en industrias altamente reguladas como los servicios financieros y la atención médica.

Demanda de toma de decisiones en tiempo real

Las empresas actuales funcionan con análisis en tiempo real y sistemas de IA, que requieren datos precisos y en tiempo real para cumplir con las expectativas. Cuando los pipelines se estancan o fallan silenciosamente, la latencia aumenta, la toma de decisiones se ralentiza y la eficiencia operativa se ve afectada.

Limitaciones de capacidad en los equipos de datos

A medida que la demanda de datos se dispara mucho, los equipos de datos centralizados (aún dependientes de la integración y entrega manual) tienen dificultades para seguir el ritmo, lo que ralentiza cada vez más la toma de decisiones en toda la organización.

La carga del monitoreo reactivo

Cuando el monitoreo de datos es en gran medida manual, los problemas tienden a surgir solo después de que los procesos posteriores se ven afectados, lo que obliga a los equipos de datos a dedicar un tiempo desproporcionado a la depuración reactiva en lugar de un trabajo de mayor valor.

Los programas de datos modernos también se enfrentan a retos estructurales que los enfoques manuales no pueden resolver. Más del 50 % de las organizaciones dependen de tres o más herramientas de integración de datos, lo que crea flujos de trabajo fragmentados y una lógica incoherente entre los equipos. Esa fragmentación se convierte en problemas más amplios: los controles de calidad se realizan demasiado tarde, las reglas de gobernanza se desvían de un sistema a otro, las rupturas de linaje no se detectan y las definiciones semánticas no están sincronizadas. En realidad, el 77 % de las organizaciones carece del talento necesario para gestionar tal complejidad.

Estas presiones afectan directamente a los equipos de datos. Los ingenieros dedican entre el 10 y el 30 % de su tiempo a descubrir problemas de datos y entre el 10 y el 30 % a resolverlos: más de 770 horas al año por ingeniero, o más de 40 000 USD en mano de obra desperdiciada. Mientras tanto, los analistas y los usuarios empresariales esperan un promedio de 1 a 4 semanas para obtener los datos que necesitan porque las tareas de integración están aisladas o estancadas.

La gestión de datos agénticos representa un cambio en la forma en que las empresas garantizan la precisión, la calidad y la integridad a escala. En lugar de realizar programar cada transformación o mantener reglas rígidas, las organizaciones pueden introducir agentes de IA para escalar la creación de pipelines, optimizar las operaciones de datos, reducir los cuellos de botella y mantener datos de alta calidad con muchas menos intervenciones manuales. Con operaciones más eficientes y datos confiables a lo largo de todo el ciclo de vida, los equipos de datos pueden centrarse en la estrategia en lugar de en la reelaboración.

Academia de IA

¿Es la gestión de datos el secreto de la IA generativa?

Explore por qué los datos de alta calidad son esenciales para el uso exitoso de la IA generativa.

Componentes centrales de la gestión de datos agénticos

La gestión de datos agénticos reúne cuatro componentes principales, cada uno habilitado por una capa coordinada de modelos de IA, agentes y tecnologías semánticas:

  • Interpretación de la intención
  • Ejecución de planes
  • Aplicación del contexto semántico
  • Aplicación de la gobernanza

Interpretación de la intención

Cuando un usuario proporciona una instrucción o solicitud, un agente utiliza sus capacidades de razonamiento para interpretar la intención. Elabora un plan que describe los activos de datos necesarios, las reglas de gobernanza, las consideraciones semánticas, las validaciones y los pasos operativos. Luego, otros agentes evalúan este plan desde sus respectivos dominios, confirmando los modelos necesarios, reglas de negocio, linaje, dependencias y metadatos del catálogo antes de comenzar cualquier acción.

Esta orquestación reduce significativamente la necesidad de que los equipos unan manualmente los procesos a lo largo del ciclo de vida de los datos, lo que acorta el tiempo de obtención de datos para analytics y alinea las operaciones de datos con la intención empresarial. Los agentes también pueden sacar a la luz ambigüedades y validar suposiciones, incorporando la estrategia de datos y las políticas de gobernanza directamente en el plan propuesto.

Ejecución de planes

A continuación, los agentes de IA llevan a cabo el trabajo definido por el plan. Acceden a los datos y los interpretan en todos los sistemas, aplican controles de gobernanza y calidad, gestionan el comportamiento del almacenamiento, ejecutan pasos de procesamiento de datos y preparan los resultados para el consumo posterior. Los agentes también pueden optimizar el costo o la latencia, adaptar las operaciones cuando fallan los sistemas y mapear dependencias en todo el ecosistema de datos.

Con tantas partes en movimiento, los agentes de IA ayudan a garantizar que las operaciones de datos sigan siendo confiables a medida que evolucionan los esquemas o cambian las cargas de trabajo. Reducen las tareas repetitivas y que consumen mucho tiempo a lo largo del ciclo de vida de los datos y mejoran la escalabilidad de las iniciativas de datos empresariales.

Aplicación del contexto semántico

Los sistemas de metadatos tradicionales describen la estructura capturando campos, formatos y definiciones de esquemas. Por el contrario, las bases de datos vectoriales pueden funcionar como una capa semántica, capturando el significado al representar cómo se relacionan los elementos de datos y el contexto en el que se utilizan. Una delimita la forma; la otra revela su textura.

Las bases de datos vectoriales almacenan incorporaciones que representan métricas, conjuntos de datos y términos de negocio como vectores matemáticos. Esto permite que los sistemas agénticos midan la similitud, descubran relaciones semánticas y detecten cambios en el significado, incluso cuando el esquema sigue siendo el mismo.

La capa semántica permite:

Aplicación de la gobernanza

La gobernanza eficaz es fundamental para la gestión de datos agénticos. En lugar de depender de revisiones manuales, estos sistemas aplican continuamente controles de políticas, calidad y seguridad a medida que los datos se mueven en su ciclo de vida. Las reglas de validación y las medidas de protección de la integridad se aplican durante la ejecución para garantizar que los resultados sigan siendo precisos y confiables en todo el ecosistema de datos de la empresa.

Algunas organizaciones incluso están desplegando agentes “guardianes” ligeros (pequeños agentes de supervisión que monitorean el estado y el comportamiento del pipeline en tiempo real) para mantener la observabilidad y detectar problemas antes de que comprometan los flujos de trabajo posteriores. Esta supervisión adicional ayuda a mantener los pipelines automatizados rápidos, confiables y alineados con los estándares de gestión de datos empresariales.

Gestión de datos agénticos en acción

Estos componentes se unen en un flujo de trabajo de bucle cerrado que combina la intención humana, la planificación basada en LLM, la ejecución orquestada por IA y la validación continua. Una interacción típica puede verse así:

  1. Un usuario expresa su intención: proporciona una instrucción en lenguaje natural como “Combinar datos de CRM y de la cadena de suministro y detectar anomalías”.
  2. Se elabora un plan: un agente de planificación impulsado por LLM analiza la instrucción, identifica conjuntos de datos relevantes y elabora una estrategia de ejecución alineada con las políticas de gobernanza y la estrategia de datos.
  3. El plan se ejecuta: agentes dedicados se conectan a los sistemas, extraen datos de almacenes y API, armonizan esquemas, aplican transformaciones, validan resultados y enriquecen atributos, todo en tiempo real.
  4. El sistema aplica medidas de protección mientras se ejecuta: las políticas de gobernanza de datos y las verificaciones semánticas se aplican automáticamente en cada paso. La lógica de supervisión (la capa de agente que evalúa y aplica las protecciones) monitorea la actividad en tiempo real y bloquea las acciones que violan los estándares.
  5. El flujo de trabajo se adapta a los cambios: si cambia un esquema, se rompe una dependencia o evoluciona una definición empresarial, el sistema vuelve a planificar los pasos y ajusta el patrón de orquestación.

Gestión de datos agénticos frente a gestión de datos maestros

Aunque a menudo se enmarca como enfoques competitivos, la gestión de datos agénticos en realidad mejora la gestión de datos maestros (MDM) al hacerla más dinámica.

La MDM define las entidades empresariales, establece reglas de gobernanza y mantiene la coherencia entre los sistemas de registro. Ayuda a crear un “registro de oro”, una única fuente de verdad que integra datos de varias fuentes, de modo que todos en la organización trabajan con la misma información.

La ADM pone en práctica esas bases validándolas a medida que se mueven los datos, aplicándolas en todo el programa de datos y adaptándose cuando cambian las condiciones.

Los dos enfoques difieren en varios aspectos importantes:

Gestión de cambios

La MDM actualiza las definiciones a través de procesos gobernados y ciclos de administración periódicos. La ADM detecta los cambios a medida que ocurren, como actualizaciones de esquema y métricas redefinidas, y recalibra para mantener alineados los sistemas descendentes.

Ámbito de responsabilidad

La MDM establece registros autorizados dentro de dominios seleccionados como clientes, proveedores y productos. La ADM extiende esa responsabilidad a todo el ecosistema de datos, garantizando que esas definiciones sigan siendo coherentes en todos los sistemas operativos, aplicaciones y entornos de analytics.

Enfoque operativo

La MDM gestiona los datos en reposo, optimizando los registros mediante emparejamiento, limpieza y estandarización. La ADM gestiona los datos en movimiento, aplicando medidas de seguridad, verificaciones de linaje y validación semántica a medida que los datos fluyen a través de la organización.

Modelo de ejecución

La MDM se basa en reglas y supervisión humana: los administradores de datos escriben mapeos, revisan excepciones y actualizan procesos. La ADM utiliza la orquestación basada en la intención: los agentes inteligentes interpretan los objetivos de negocio, generan un plan y ejecutan y validan de forma autónoma los flujos de trabajo.

Adaptabilidad

La MDM se adapta al ritmo del proceso, reflejando los cambios solo después de que se completan los flujos de trabajo de gobernanza. La ADM se adapta al ritmo del cambio, ajustando la lógica y el comportamiento de los pipelines de forma dinámica a medida que evolucionan las definiciones, los conjuntos de datos y las condiciones empresariales.

Abordar el futuro de la gestión de datos

En una era de negocios en tiempo real sin fricciones, la gestión de datos está pasando de flujos de trabajo rígidos y basados en reglas a un comportamiento adaptativo y orientado a la intención. La investigación de IBM en IA, preparación de datos y modelos operativos señala tres cambios importantes que están configurando este nuevo escenario de gestión de datos.

Los pipelines se comportarán en lugar de ejecutarse

La IA agéntica mueve los flujos de trabajo más allá de los scripts estáticos y hacia un comportamiento adaptativo y consciente del contexto. Los pipelines responderán a los cambios en los metadatos, las reglas de negocio, la carga operativa y las restricciones de gobernanza, alterando su ruta de ejecución en lugar de interrumpirse cuando cambien las condiciones.

En estas arquitecturas agénticas, los sistemas multiagente sustituyen a las plataformas monolíticas: agentes especializados se encargan de la ingestión, la calidad, el linaje o la optimización, mientras que un agente supervisor mantiene la alineación con la intención y la política.

La semántica importará tanto como la estructura

Los datos preparados para la IA dependen no solo de la precisión del esquema, sino también de la coherencia semántica. Los problemas de calidad de los datos de hoy a menudo se remontan a la desviación del esquema, pero los de mañana se derivarán de la desviación semántica: significados de negocio que evolucionan sin cambios estructurales. A medida que cambian los segmentos de clientes o evolucionan las jerarquías de productos, los sistemas agénticos deberán detectar incongruencias en el significado, no solo en el formato.

La memoria semántica, la comprensión vectorial y la validación contextual se están volviendo esenciales para mantener datos confiables y listos para la IA.

Los equipos de datos pasarán de ser creadores a supervisores

A medida que los modelos operativos maduran, los ingenieros de datos cambian de la programación manual de transformaciones a la supervisión de sistemas autónomos. Eso significa diseñar protecciones, revisar las decisiones de los agentes y resolver casos extremos novedosos a medida que surjan.

Este cambio hace que la explicabilidad sea fundamental para el modelo: los rastreos de razonamiento, los registros auditables y los puntos de control con intervención humana se vuelven necesarios para garantizar la confianza y el cumplimiento.

Autores

Tom Krantz

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Soluciones relacionadas
IBM StreamSets

Cree y gestione canalizaciones de datos de streaming inteligentes a través de una interfaz gráfica intuitiva, y facilite una integración de datos fluida en entornos híbridos y multinube.

Explorar StreamSets
IBM watsonx.data™

watsonx.data le permite escalar los analytics y la IA con todos sus datos, residan donde residan, a través de un almacén de datos abierto, híbrido y gestionado.

Descubra watsonx.data
Servicios de consultoría en datos y analytics

Desbloquee el valor de los datos empresariales con IBM Consulting, y construya una organización impulsada por insights que ofrezca ventajas empresariales.

Descubra los servicios de analytics
Dé el siguiente paso

Diseñe una estrategia de datos que elimine los silos de datos, reduzca la complejidad y mejore la calidad de los datos para ofrecer experiencias excepcionales a clientes y empleados.

  1. Explore las soluciones de gestión de datos
  2. Descubra watsonx.data
Notas de pie de página

1Can AI Autonomously Build, Operate and Use the Entire Data Stack?” IBM Research. 8 de diciembre de 2025