Gracias a ChatGPT y a docenas de otros chatbots creados sobre modelos fundacionales, casi todo el mundo conoce los modelos de lenguaje de gran tamaño (LLM). Pero, ¿qué pasa con los modelos de bases de datos grandes (LDM)?
"Los LDM son modelos ajustados para derivar insight de grandes conjuntos de datos y flujos de transacciones en lugar del lenguaje y el texto humanos, que son el dominio de los LLM y los chatbots", dijo Ric Lewis, vicepresidente sénior de infraestructura de IBM, en IBM 2025 Investor Day.
Si bien los LLM se capacitan con datos disponibles públicamente, como libros, artículos, Wikipedia y otras fuentes, sus materiales de capacitación no suelen incluir la gran cantidad de datos dentro de las empresas. De hecho, solo el 1 % de los datos empresariales se utiliza actualmente en modelos de lenguaje de gran tamaño.
Los LDM, por el contrario, están capacitados en registros de transacciones, información de productos, datos de relaciones con clientes, registros de capacitación y registros de empleados, entre otras fuentes de datos empresariales. Como resultado, las empresas pueden utilizar LDM para descubrir el significado del 99 % de los datos sin explotar que se encuentran en sus bases de datos mediante preguntas conversacionales, en un proceso conocido como búsqueda semántica. La búsqueda semántica va más allá de la coincidencia de palabras clave para comprender el significado y el contexto detrás de la consulta de búsqueda de un usuario.
"Los LDM representan una nueva y emocionante forma de aprovechar los datos integrados en las aplicaciones comerciales y los flujos de transacciones para extraer nuevos insights y un nuevo valor para la empresa", dice Lewis en una entrevista con IBM Think. "Si bien los LDM recién están surgiendo, somos optimistas sobre su potencial para ser utilizados para informar aplicaciones de agentes y ayudar a las empresas a obtener mejores resultados", explica, y agrega que estos modelos ya se están adoptando para infundir la IA en los procesos transaccionales.
Considere, por ejemplo, un negocio de venta minorista que busca identificar clientes cuyo poder adquisitivo promedio e historial de compras reflejen los de una compradora llamada Claire, que recientemente entró a la tienda y expresó un gran interés en un nuevo producto de belleza. Tradicionalmente, el científico de datos del minorista comenzaría por definir el pipeline, los procesos para convertir los datos sin procesar en respuestas útiles a la pregunta específica del negocio que se está considerando. A continuación, formularían la consulta de la base de datos con términos muy específicos, como "Buscar a todos los clientes de entre 20 y 40 años que vivan en Nueva York y que hayan gastado al menos 1000 USD en productos de belleza el año pasado".
Luego, el científico de datos extraía los datos necesarios, los cargaba en otra plataforma y, durante un período de semanas o meses, determinaba qué clientes se parecían a Claire en su base de datos.
Dado el extenso proceso que implica completar las consultas tradicionales de bases de datos, "hay una gran cantidad de datos en los mainframes de las empresas que no suelen ser el objetivo de la IA generativa y de los que las empresas no obtienen ningún insight", Catherine Wu, directora de programas de Db2 en Silicon Valley Lab de IBM, le dice a IBM Think.
Parte de esto se debe a los costos y las preocupaciones de seguridad asociados con el traslado de datos a un entorno externo. "Tenemos clientes que nos dicen que solo mover datos representa entre el 30 y el 40 % de sus costos de TI", dice Wu. "Además, una vez que los datos se mueven fuera de su mainframe, no pueden rastrear a dónde van, por lo que es una gran preocupación para los clientes".
Los LDM, por el contrario, permiten a los usuarios buscar bases de datos y obtener respuestas de forma mucho más rápida y sencilla, ya sea que la base de datos esté on premises, en la nube o en un híbrido de las dos. Entonces, el minorista en el ejemplo anterior podría simplemente consultar la base de datos para preguntar: "Enumere los 100 principales clientes como Claire". Y poco tiempo después, cualquier persona con capacitación básica en SQL podía extraer esa información sin tener que mover los datos a ninguna parte, dice Wu. IBM lanzó su primer producto de base de datos utilizando un modelo de base de datos grande en 2022 llamado SQL Data Insights (SQL DI), que forma parte de la base de datos Db2 para z/OS ubicada en IBM® Z mainframes, que impulsan más del 70 % de las transacciones financieras del mundo por valor.
Como dijo Kate Soule, directora de gestión técnica de productos de Granite, en un episodio reciente del podcast Mixture of Experts, los LLM pueden "a menudo ser excesivos".
"Los requisitos de entrenamiento y ajuste de los LDM se pueden lograr con una infraestructura diferente a la de los LLM", dice Lewis de IBM. “No se necesitan granjas masivas de GPU para abordar los problemas que la mayoría de las empresas intentan resolver. En comparación con todos los datos que podrían utilizarse para entrenar un LLM, una base de datos empresarial de transacciones es relativamente pequeña”. Pero, dice Lewis, los datos específicos de la empresa pueden crear "modelos específicos para ofrecer un resultado específico de manera más rentable y, a menudo, más eficaz".
Con SQL DI de IBM, cada valor dentro de una columna de base de datos, independientemente de su tipo de datos, se traduce en un token de texto. "En consecuencia, el modelo percibe cada registro de la base de datos como una bag of words en una oración similar al inglés donde cada token mantiene una relación igual con los demás, independientemente de su posición en el registro", dice Akiko Hoshikawa, ingeniero distinguido de IBM. A continuación, SQL DI deduce los valores significativos de la base de datos en función de los valores de las columnas circundantes, tanto dentro como entre las filas de la tabla. Con el modelo entrenado de esta manera, casi cualquier persona puede ejecutar una consulta de IA sobre datos relacionales para detectar y emparejar datos semánticamente similares directamente dentro de la base de datos.
Si bien muchas empresas están explorando los LDM como prueba de concepto, algunas empresas de seguros y venta minorista ya están utilizando estas herramientas para acelerar el proceso de extracción de valor de sus bases de datos.
Thomas Baumann, evangelista de datos de Swiss Mobiliar, la compañía de seguros más antigua de Suiza, utiliza SQL DI de IBM en varias áreas de la empresa. Baumann comenzó a usar SQL DI para ayudar a la empresa a adaptar mejor las cotizaciones de seguros de automóviles para aumentar las ventas. Cuando un vendedor interactuaba con un posible nuevo titular de la póliza de seguro, podía introducir una cotización, y el LDM extraía los casos anteriores más similares para determinar la probabilidad de que el cliente lo aceptara.
"Luego, el usuario puede cambiar algunos de los parámetros, como disminuir los deducibles u ofrecer un descuento más agresivo, y luego recalcular las nuevas probabilidades de éxito", dice Baumann en una entrevista con IBM Think. “Las cotizaciones son mucho más sofisticadas y adaptadas a clientes individuales que nunca antes”.
Al utilizar SQL DI de IBM para el producto de seguros de automóviles de Swiss Mobiliar, la empresa entrenó el modelo con aproximadamente 15 millones de registros de datos de cotizaciones de seguros de automóviles, y cada registro contenía varias docenas de atributos para cada registro, como datos demográficos, datos del vehículo y precio. Baumann dice que el personal de ventas descubrió que podían hacer cotizaciones más científicas al verificar las probabilidades de varias cotizaciones candidatas antes de seleccionar una.
Como resultado, mejoraron la tasa de cierre de las ventas de seguros en un 7 % en el transcurso de seis meses, una mejora que, según Baumann, habría llevado aproximadamente dos años sin usar LDM. Con base en el éxito de este piloto, Swiss Mobiliar ahora está utilizando LDM para todos sus productos de seguros (con la excepción de los seguros de vida), desde seguros de edificios hasta seguros domésticos.
"Los dos beneficios principales de SQL DI son que es muy rápido mover de una idea a la preproducción", dice Baumann. "Tampoco es necesario mover datos de una plataforma a otra".
Más allá de los seguros, el equipo de SQL DI de IBM también está trabajando con varios minoristas de alimentos en Estados Unidos y Europa que están interesados en utilizar LDM para ofrecer a los clientes experiencias de compra más personalizadas. Un cliente podría, por ejemplo, tener un tipo de cereal en la mano y ejecutar una consulta semántica en la base de datos para obtener cereales alternativos que tengan un sabor similar pero ofrezcan un perfil nutricional más saludable. Los LDM utilizados para hacer sugerencias son como "recomendaciones más sofisticadas y personalizadas de Amazon o Netflix", dice Hoshikawa.
Más allá de las aplicaciones orientadas al cliente, las empresas ya están desplegando LDM en muchas áreas B2B, como la detección de anomalías y la detección de fraudes en tiempo real. Cualquier empresa que emita contratos, por ejemplo, podría usar un LDM para identificar rápidamente los contratos que están fuera de lo común, dice Hoshikawa de IBM.
Mientras tanto, los LDM pueden impulsar una detección de fraude en tiempo real más sofisticada. Además de identificar transacciones que no siguen patrones típicos, los LDM pueden consultar bases de datos para identificar registros que incluyen varios atributos asociados con comportamientos sospechosos, como empresas que no cuentan con informes de Better Business Bureau o que carecen de direcciones.
Lewis cree que los LLM y LDM serán seguidos por muchos otros modelos especializados. "Creemos que los LDM, al igual que los LLM, son una herramienta valiosa para permitir una ola de aplicaciones de agentes y ayudar a impulsar mejores resultados", dice. “Pero no esperamos que siempre se utilicen de forma aislada. De hecho, creemos que el escenario ideal es incorporar LDM en el modelo de datos empresariales y combinarlos con LLM y otros modelos adecuados para generar un nuevo valor masivo a escala para las empresas y para la sociedad”.
Del mismo modo, Lewis no espera que una empresa u organización domine necesariamente. "No asuma que será una empresa, o la empresa que tenga la mayor cantidad de servidores y más GPU, la que desarrollará la navaja suiza de los modelos", dice Lewis. “No lo creo. Al igual que creo que podemos obtener el mayor insight aprovechando el conocimiento especializado de expertos en diferentes campos, creo que la capacidad de combinar LLM, LDM y futuras oleadas de modelos específicos conducirá a insights genuinamente nuevos, y resultados realmente optimizados”.
Utilice las soluciones de bases de datos de IBM para satisfacer las distintas necesidades de carga de trabajo en la nube híbrida.
Explore IBM Db2, una base de datos relacional que ofrece alto rendimiento, escalabilidad y fiabilidad para almacenar y gestionar datos estructurados. Está disponible como SaaS en IBM Cloud o para autoalojamiento.
Desbloquee el valor de los datos empresariales con IBM Consulting y cree una organización impulsada por insights que ofrezca ventajas empresariales.