Toda organización necesita solucionadores de problemas. Me refiero a los operadores independientes, que desdeñan el tipo de cogimiento de la mano que afecta a las empresas ineficientes y tienen la suficiente confianza como para leer entre líneas. Cuando un software demuestra este tipo de inteligencia, decimos que "funciona". Cuando se trata de un empleado, decimos que "lo entiende".
Luego está el otro extremo del espectro, que se caracteriza por los aplazamientos, los retrasos y la indecisión. Estas ruedas chirriantes, que suelen ir un paso por detrás o actuar con información desactualizada, lo paralizan todo y provocan habitualmente una de las frases más frustrantes en el lenguaje de oficina: "ya lo haré yo".
Millones de agentes de IA (cosa de la que es consciente si está leyendo este blog) se crearán e implementarán en los próximos años. Según el IBM Institute for Business Value, el 70 % de los directivos encuestados afirman que la IA agéntica es fundamental para su estrategia futura. La pregunta es, ¿qué tipo de agentes está liberando: solucionadores de problemas o creadores de problemas?
La diferencia entre ambos se reduce a un enemigo familiar: los silos. Es muy tentador confirmar el sesgo optimista durante las condiciones ideales de la temporada piloto. Sin embargo, cuando llega el momento de la implementación en toda la empresa, la complejidad de las grandes empresas impide el progreso. Los flujos de trabajo enredados, el gobierno fragmentado y el acceso inconsistente a datos convierten a cada agente en un problema de mantenimiento. Lo que se suponía que iba a impulsar la productividad se convierte en un importante lastre para la misma. Podríamos llamarlo la ironía de la IA.
Para escalar, las organizaciones deben orquestar a todos sus agentes de forma holística, creando un elenco de colaboradores de IA gobernados de forma consistente que se integren fácilmente con las herramientas existentes. Cuando la orquestación funciona, los procesos se alinean, los silos se disuelven y el potencial de la IA se convierte en resultados reales. Aun así, la orquestación por sí sola no ganará la carrera de la IA. Los datos son el diferenciador. Es la fuerza que hace que todos sus agentes, no solo los casos de prueba POC, dominen su negocio y sean lo suficientemente fiables como para actuar de forma autónoma.
Al fin y al cabo, los datos genéricos conducen a una IA genérica que habla en el mismo tono monótono que sus competidores. O peor aún, los datos mal gestionados pueden convertir a la IA en una carga que propaga errores más rápido y más lejos que cualquier persona.
El mercado tardó demasiado en reconocer la importancia de preparar los datos para la IA, un descuido que ha provocado que el ROI esté por determinar y se manifiesta en una serie de estadísticas que demuestran que la mayoría de las organizaciones siguen estancadas en la temporada piloto. De hecho, solo el 5 % de las organizaciones encuestadas han integrado herramientas de IA en flujos de trabajo a escala, según un informe del MIT.
Actualmente se está produciendo una gran corrección a medida que las organizaciones invierten miles de millones en sus iniciativas de datos. Según los datos de la próxima encuesta del IBM Institute of Business Value, aproximadamente el 13 % de los presupuestos de TI se asignaron a la estrategia de datos en 2025, frente al 4 % en 2022. Del mismo modo, el 82 % de los directores de datos encuestados afirman que están contratando personal para puestos que no existían el año pasado.
El objetivo, por supuesto, es dotar a su IA del tipo de datos propietarios y de confianza que hacen única a su empresa. Cuando usted o sus clientes dan instrucciones a su IA, esta debe devolver información contextualmente relevante que sea coherente con los objetivos, valores y obligaciones normativas de su organización. La IA agéntica aumenta aún más las apuestas. Cuando pone en marcha a un agente y lo capacita para tomar decisiones y perseguir objetivos explícitos, debe confiar en que conoce su negocio y su cultura (sus datos) por dentro y por fuera.
Para que los agentes tengan éxito, necesitan datos de calidad. Datos que, según The Data Management Association, son datos precisos, completos, consistentes, oportunos, únicos y válidos. IBM añade una séptima dimensión de calidad de los datos, la homogeneidad, que es una medida de calidad que garantiza que los datos variados puedan armonizarse para una interpretación coherente y enriquecerse para la comprensión semántica.
Mantener la calidad de los datos no es fácil, especialmente en la era de los zettabytes. Las garantías de calidad manuales requieren mucho tiempo, son propensas a errores y requieren una escala de profesionales de datos que simplemente no existe en medio de una persistente escasez de talento.
Las organizaciones han intentado salvar esta brecha construyendo precariamente pilas de datos que se derrumban con almacenes de datos, data lakes y herramientas de integración. Parches, paneles de control y scripts incrementan aún más sobrecarga. El enfoque ad hoc conduce con demasiada frecuencia a una deuda técnica que se acumula de forma constante e impredecible. La innovación pasa a un segundo plano cuando su personal de TI se ve obligado a dedicarse exclusivamente al mantenimiento, desperdiciando su productividad debido a las deficiencias de su patrimonio de datos.
¿A dónde vamos desde aquí?
La respuesta comienza con una capa de datos que conecta, enriquece y gobierna todas sus fuentes de datos y sirve como fuente de apoyo para agentes de IA que dominan el contexto y la voz de su organización. Con esa base, los agentes toman decisiones en las que puede confiar: acelerando flujos de trabajo, reduciendo riesgos y aumentando la productividad a escala.
Los metadatos son el lenguaje de esa capa. Proporciona el contexto que hace que sus datos sean fácilmente ingeribles para IA o cargas de trabajo más tradicionales, como el análisis y la ingeniería de datos. Sin embargo, la clasificación manual no escala. El etiquetado automatizado sí lo hace, porque aplica la estructura a la velocidad de ingestión. Captura el linaje, la sensibilidad y el significado empresarial, con supervisión humana disponible cuando sea necesario, para reducir el riesgo y acelerar las tareas posteriores, como la recuperación y el cumplimiento. En resumen, convierte activos en bruto en conocimiento gobernado y contextual antes de que nadie lo pida.
El contexto es poderoso. En última instancia, conduce a una IA más precisa y a una toma de decisiones más segura. Sin embargo, los datos sin los permisos correctos son una responsabilidad, no un activo.
Las normas de acceso no deberían estar en las hojas de cálculo. Deben viajar con los datos. A medida que los activos se trasladan de un almacén de documentos a un lago y a un trabajo de afinación, los permisos también deben trasladarse. Cuando las políticas se aplican en función de la identidad, el rol y el propósito, las personas adecuadas ven los datos adecuados en el momento adecuado. Este proceso reduce el riesgo, evita la exposición accidental y evita que el cumplimiento de la normativa se convierta en un simulacro de incendio.
Un gobierno sólido es esencial, pero es solo una parte de la ecuación. La arquitectura que lo sustenta determina si el control se escala o se detiene. El diseño abierto e híbrido es el enfoque correcto, porque la mayoría de las empresas ya abarcan varios entornos de nube y locales. Separar el almacenamiento y el procesamiento evita las costosas migraciones y las interrupciones que provocan. Los formatos de archivo abiertos, como Apache Iceberg, lo hacen posible al desvincular las aplicaciones del almacenamiento y permitir que las herramientas lean y escriban los datos en su lugar, dondequiera que estén. También impiden quedarse en la base de datos de un solo proveedor. La flexibilidad no es un lujo, es una protección contra los costes desbocados y los sistemas rígidos que no pueden adaptarse cuando las prioridades cambian. No es de extrañar entonces que tres cuartas partes de las organizaciones esperen aumentar el uso de las tecnologías de IA de código abierto (incluidos los formatos de archivo abiertos) en los próximos años, alegando unos costes de implementación y mantenimiento más bajos, según un estudio de McKinsey.
Los datos no estructurados siguen siendo una gran reserva sin explotar. Facturas, correos electrónicos, registros, imágenes (incluso este artículo) contienen conocimientos, espero, que rara vez llegan a la analítica porque están dispersos por sistemas, bloqueados en formatos incompatibles y sin etiquetas claras. La extracción manual no es viable. Exige horas de esfuerzo humano, invita a cometer errores y se derrumba bajo el peso de los datos a escala empresarial. La automatización es la única forma de imponer orden a nivel empresarial: identificar entidades, capturar valores y superponer semánticas que reflejen cómo habla realmente su empresa y cómo quiere aparecer en el mercado. A partir de ahí, surge un esquema que las máquinas pueden procesar y en el que los humanos (y los agentes de IA) pueden confiar.
Cuando estos datos enriquecidos fluyen hacia una capa de recuperación que combina texto a SQL, recuperación vectorial y consultas híbridas, los agentes dejan de adivinar. Empiezan a razonar y actuar con confianza. Los sistemas RAG tradicionales, por el contrario, a menudo tienen dificultades para comprender el contexto, lo que los hace inadecuados para el razonamiento a escala empresarial. Un enfoque unificado evita esos escollos y da a los agentes la profundidad y la precisión que necesitan para actuar con decisión.
Convertir el caos no estructurado en claridad estructurada es un comienzo, pero la inteligencia es lo que hace útil esa claridad. Sin ella, incluso los datos mejor organizados permanecen inertes. La inteligencia de datos proporciona una historia a cada activo: de dónde procede, cómo ha cambiado y quién es responsable de ello. La catalogación y el linaje no son sólo tareas domésticas; son la base de la confianza. La puntuación de calidad garantiza que los agentes no razonen en un terreno inestable. Publicar productos de datos con términos bien definidos convierte los recursos en bruto en servicios consumibles en los que los equipos pueden confiar. Cuando un agente cita una cifra, la fuente debe estar a un clic de distancia. Cuando cambia una definición, todos los sistemas dependientes deben saberlo antes de tomar la siguiente decisión.
Pero la inteligencia por sí sola no es suficiente. El informe de IBM 2024 sobre la IA en la Acción concluyó que la complejidad de los datos (incluida la integración entre sistemas fragmentados) sigue siendo una de las principales barreras para escalar la IA. Los agentes y otros sistemas que dependen de datos necesitan una integración continua en lugar de una sola y cerrada. La integración es el proceso mediante el cual los datos se moldean en movimiento: se estandarizan, se enriquecen, se gobiernan y se preparan para su uso a medida que fluyen. Los pipelines deben adaptarse con cada ejecución, aprendiendo de la deriva y optimizando el rendimiento, el coste y la calidad. La observabilidad también importa. Cuando la integración es visible y receptiva, los sistemas posteriores, incluidos los agentes, no heredan errores silenciosos o lógica obsoleta.
Cuando la integración y la inteligencia trabajan juntas, el resultado es evidente: simplemente funciona. No es cuestión de suerte, sino de que la arquitectura subyacente está diseñada deliberadamente. Una capa de datos que conecte su patrimonio, aplique el significado y lleve el gobierno a cada movimiento (agente o de otro tipo) aumenta la precisión e impulsa la toma de decisiones con confianza. Así es como se convierte una demostración prometedora en un sistema fiable. Así es como se pasa de los pilotos a la producción sin perder la trama.
1. From AI projects to profits: How agentic AI can sustain financial returns. IBM Institute for Business Value. 9 de junio de 2025.
2. The GenAI Divide: State of AI in Business 2025. MIT Nanda. Julio de 2025
3. The AI multiplier effect: Accelerate growth with decision-ready data. IBM Institute for Business Value. Diciembre de 2025
4. The Six Primary Dimensions for Data Quality Assessment. DAMA United Kingdom. Octubre de 2013.
5. Data quality dimensions. IBM. 17 de octubre de 2025.
6. Open source technology in the age of AI. McKinsey & Company, the Mozilla Foundation and the Patrick J. McGovern Foundation. Abril de 2025.
7. AI in Action 2024. IBM. 2024.