Graças ao ChatGPT e dezenas de outros chatbots construídos sobre modelos de base, quase todo mundo conhece os grandes modelos de linguagem (LLMs). Mas e quanto aos grandes modelos de banco de dados (LDMs)?
“Os LDMs são modelos ajustados para extrair insights de grandes conjuntos de dados e fluxos de transações, em vez de linguagem humana e texto, que são o domínio dos LLMs e chatbots”, afirmou Ric Lewis, SVP of Infrastructure da IBM, no IBM 2025 Investor Day.
Embora os LLMs sejam treinados com dados publicamente disponíveis, como livros, artigos, Wikipedia e várias outras fontes, seus materiais de treinamento normalmente não incluem a vasta quantidade de dados existentes nas empresas. Na verdade, apenas 1% dos dados corporativos são usados atualmente em grandes modelos de linguagem.
Os LDMs, por outro lado, são treinados em registros de transações, informações de produtos, dados de relacionamento com clientes, logs de treinamento e registros de funcionários, entre outras fontes de dados corporativos. Como resultado, as empresas podem usar LDMs para descobrir o significado de 99% de dados inexplorados encontrados em seus bancos, usando perguntas conversacionais, em um processo conhecido como pesquisa semântica. A pesquisa semântica vai além da correspondência de palavras-chave para entender o significado e o contexto por trás da consulta de pesquisa de um usuário.
“Os LDMs representam uma nova e empolgante maneira de aproveitar os dados incorporados nos fluxos de aplicações e transações de negócios para extrair novos insights e novo valor para a empresa”, afirma Lewis em entrevista ao IBM Think. “Embora os LDMs estejam apenas surgindo, estamos otimistas quanto ao seu potencial para serem utilizados na orientação das aplicações de agentes, ajudando as empresas na obtenção de melhores resultados”, explica ele, acrescentando que esses modelos já estão sendo adotados para integrar a IA aos processos transacionais.
Considere, por exemplo, uma empresa varejista que busca identificar clientes cujo poder de compra médio e histórico de compras sejam semelhantes aos de uma compradora chamada Claire, que recentemente entrou na loja e demonstrou grande interesse em um novo produto de beleza. Tradicionalmente, o cientista de dados do varejista começaria definindo o pipeline, os processos para transformar dados brutos em respostas úteis para a questão comercial específica que está sendo considerada. Em seguida, eles formulariam a consulta ao banco de dados com termos muito específicos, como “encontre todos os clientes entre 20 e 40 anos que moram em Nova York e que gastaram pelo menos USD 1.000 em produtos de beleza no último ano”.
O cientista de dados extrairia então os dados necessários, carregaria esses dados em outra plataforma e, ao longo de semanas ou meses, determinaria quais clientes em seu banco de dados se assemelhavam a Claire.
Dado o extenso processo envolvido na conclusão de consultas tradicionais a bancos de dados, “há muitos dados nos mainframes da empresa que normalmente não são o alvo da IA generativa e dos quais as empresas não estão obtendo nenhum insight”, disse Catherine Wu, diretora do programa Db2 no Laboratório do Vale do Silício da IBM, ao IBM Think.
Parte disso se resume ao custo e às preocupações com a segurança associados à migração dos dados para um ambiente externo. “Temos clientes que nos dizem que apenas a migração de dados representa de 30 a 40% dos seus custos de TI”, afirma Wu. “Além disso, depois que os dados são migrados do mainframe, eles não conseguem rastrear para onde estão indo, o que é uma grande preocupação para os clientes.”
Os LDMs, por outro lado, permitem que os usuários pesquisem bancos de dados e obtenham respostas de forma muito mais rápida e fácil, esteja o banco de dados no local, na nuvem ou em um ambiente híbrido. Assim, o varejista do exemplo acima poderia simplesmente consultar o banco de dados e pedir: “liste os 100 principais clientes como a Claire”. E pouco tempo depois, qualquer pessoa com conhecimento básico em SQL poderia obter essas informações sem precisar migrar dados para qualquer lugar, diz Wu. Em 2022, a IBM lançou seu primeiro produto de banco de dados usando um modelo de banco de dados de grande porte, chamado SQL Data Insights (SQL DI), que faz parte do banco de dados Db2 para z/OS localizado no mainframe IBM Z, responsáveis por mais de 70% das transações financeiras mundiais em valor.
Como Kate Soule, diretora de gerenciamento de produtos técnicos da Granite, disse em um episódio recente do podcast Mixture of Experts, os LLMs “muitas vezes podem ser exagerados”.
“Os requisitos de treinamento e ajuste dos LDMs podem ser atendidos com uma infraestrutura diferente dos LLMs”, diz Lewis, da IBM. “Você não precisa de grandes quantidades de GPUs para resolver os problemas que a maioria das empresas está tentando resolver. Em comparação com todos os dados que podem ser usados para treinar um LLM, um banco de dados corporativo de transações é relativamente pequeno.” Mas, segundo Lewis, dados específicos da empresa podem criar “modelos específicos para alcançar um resultado específico de forma mais eficiente em termos de custos e, muitas vezes, mais eficaz”.
Com o SQL DI da IBM, cada valor em uma coluna do banco de dados, independentemente do tipo de dados, é traduzido em um token de texto. “Consequentemente, o modelo percebe cada registro do banco de dados como uma bag of words não ordenadas em uma frase semelhante à do inglês, em que cada token mantém uma relação igual com os outros, independentemente de sua posição no registro”, diz a Distinguished Engineer da IBM, Akiko Hoshikawa. Em seguida, o SQL DI deduz os valores significativos do banco de dados com base nos valores das colunas ao redor, tanto dentro quanto entre as linhas da tabela. Com o modelo treinado dessa forma, praticamente qualquer pessoa pode executar uma consulta de IA em dados relacionais para detectar e combinar dados semanticamente semelhantes direto no banco de dados.
Enquanto muitas empresas estão explorando os LDMs como prova de conceito, algumas empresas dos setores de seguros e varejo já estão utilizando essas ferramentas para acelerar o processo de extração de valor de seus bancos de dados.
Thomas Baumann, evangelista de dados da Swiss Mobiliar, a seguradora mais antiga da Suíça, usa o SQL DI da IBM em diversas áreas da empresa. Baumann começou a usar SQL DI para ajudar a empresa a personalizar melhor as cotações de seguros de automóveis e, assim, aumentar as vendas. Quando um vendedor estava interagindo com um possível novo segurado, ele poderia inserir uma cotação e o LDM extrairia os casos anteriores mais semelhantes para determinar a probabilidade de aceitação do cliente.
"Em seguida, o usuário pode alterar alguns dos parâmetros, como diminuir as franquias ou oferecer um desconto mais agressivo, e então recalcular as novas chances de sucesso", diz Baumann em uma entrevista ao IBM Think. “As cotações são muito mais sofisticadas e personalizadas para cada cliente como nunca foram antes.”
Ao usar o SQL DI da IBM para o produto de seguro de automóveis da Swiss Mobiliar, a empresa treinou o modelo com aproximadamente 15 milhões de registros de dados de cotações de seguros de automóveis, com cada registro contendo várias dezenas de atributos para cada registro, como dados demográficos, dados do veículo e preço. Baumann afirma que os vendedores descobriram que conseguiriam elaborar cotações mais precisas ao verificar as probabilidades de várias opções antes de escolher uma.
Como resultado, eles melhoraram a taxa de fechamento de vendas de seguros em 7% ao longo de seis meses, uma melhoria que Baumann diz que teria levado aproximadamente dois anos sem o uso de LDMs. Com base no sucesso desse piloto, a Swiss Mobiliar agora está usando LDMs para todos os seus produtos de seguro (com exceção de seguros de vida), desde seguros de edifícios até seguros residenciais.
“Os dois principais benefícios do SQL DI são a rapidez com que se pode migrar de uma ideia para um ambiente de pré-produção”, afirma Baumann. “Além disso, não é necessário migrar dados de uma plataforma para outra.”
Além de seguros, a equipe de SQL DI da IBM também está trabalhando com vários varejistas de alimentos nos EUA e na Europa que estão interessados em usar LDMs para oferecer aos clientes experiências de compra mais personalizadas. Um cliente pode, por exemplo, estar segurando um tipo de cereal na mão e executar uma consulta semântica no banco de dados para obter cereais alternativos com sabor semelhante, mas que ofereçam um perfil nutricional mais saudável. Os LDMs usados para fazer sugestões são como “recomendações mais sofisticadas e personalizadas da Amazon ou da Netflix”, diz Hoshikawa.
Além de aplicações voltadas para o cliente, as empresas já estão implementando LDMs em muitas áreas B2B, como detecção de anomalias e detecção de fraudes em tempo real. Qualquer empresa que emita contratos, por exemplo, poderia usar um LDM para identificar rapidamente contratos que estão fora do normal, diz Hoshikawa da IBM.
Ao mesmo tempo, os LDMs também podem potencializar uma detecção mais sofisticada de fraude em tempo real. Além de identificar transações que não seguem padrões típicos, os LDMs podem consultar bancos de dados para encontrar registros que incluam diversos atributos associados a comportamentos suspeitos, como empresas sem relatórios do Better Business Bureau ou sem endereços físicos.
Lewis acredita que LLMs e LDMs serão seguidos por muitos outros modelos especializados. “Acreditamos que os LDMs, assim como os LLMs, são uma ferramenta valiosa para permitir uma onda de aplicações agênticas e ajudar a impulsionar melhores resultados”, diz ele. “Mas não esperamos que eles sejam sempre usados de forma isolada. Na verdade, acreditamos que o cenário ideal é incorporar os LDMs no modelo de dados corporativos e combiná-los com LLMs e outros modelos adequados ao propósito para gerar um novo valor massivo em escala para as empresas e para a sociedade.”
Da mesma forma, Lewis não espera que uma empresa ou organização domine necessariamente o mercado. “Não presuma que será uma única empresa, ou a empresa que possui o maior número de servidores e GPUs, que desenvolverá o canivete suíço dos modelos”, diz Lewis. “Não acredito nisso. Assim como acho que podemos obter o máximo de insights aproveitando o conhecimento especializado de especialistas em diferentes campos, acredito que a capacidade de combinar LLMs, LDMs e ondas futuras de modelos criados para fins específicos levará a insights genuinamente novos, e resultados realmente otimizados.”
Use soluções de bancos de dados da IBM para atender a diversas necessidades de cargas de trabalho em toda a nuvem híbrida.
Explore o IBM Db2, um banco de dados relacional que oferece alto desempenho, escalabilidade e confiabilidade para armazenar e gerenciar dados estruturados. Está disponível como SaaS no IBM Cloud ou para auto-hospedagem.
Libere o valor dos dados empresariais com a IBM® Consulting, construindo uma organização orientada por insights, que proporciona vantagem comercial.