Grazie a ChatGPT e a decine di altri chatbot basati su foundation model, quasi tutti conoscono i modelli linguistici di grandi dimensioni (LLM). Ma che dire dei modelli di database di grandi dimensioni (LDM)?
"Gli LDM sono modelli ottimizzati per trarre insight da grandi set di dati e flussi di transazioni piuttosto che dal linguaggio umano e dal testo, che sono dominio di LLM e chatbot," ha dichiarato Ric Lewis, SVP of Infrastructure di IBM, durante l'IBM Investor Day del 2025.
Sebbene gli LLM vengano addestrati su dati pubblici come libri, articoli, Wikipedia e varie altre fonti, i loro materiali di formazione di solito non includono la grande quantità di dati interna alle imprese. Difatti, solo 1% dei dati aziendali viene attualmente utilizzato nei modelli linguistici di grandi dimensioni.
Gli LDM, al contrario, sono addestrati su registri di transazioni, informazioni sui prodotti, dati di relazione con i clienti, log di formazione e record dei dipendenti, tra altre fonti di dati aziendali. Di conseguenza, le aziende possono utilizzare gli LDM per scoprire il significato del 99% dei dati inutilizzati presenti nei loro database, utilizzando domande conversazionali in un processo noto come ricerca semantica. La ricerca semantica va oltre l'abbinamento delle parole chiave e comprende il significato e il contesto dietro la query di ricerca di un utente.
"Gli LDM rappresentano un modo nuovo ed entusiasmante per utilizzare i dati incorporati nelle applicazioni e nei flussi di transazioni per estrarre nuovi insight e nuovo valore per l'azienda", afferma Lewis in un'intervista con IBM Think. "Sebbene gli LDM siano nati da poco, siamo ottimisti sul loro potenziale di essere utilizzati per informare le applicazioni e aiutare le aziende a ottenere miglioramenti", spiega, aggiungendo che questi modelli sono già stati adottati per integrare l'AI nei processi transazionali.
Consideriamo, ad esempio, un'attività di retail che cerca di identificare clienti la cui capacità d'acquisto media e storia d'acquisto rispecchiano quelle di una cliente di nome Claire, che è da poco entrata in negozio e ha mostrato forte interesse per un nuovo prodotto di beauty. Tradizionalmente, il data scientist del retailer iniziava a definire la pipeline, ossia i processi per trasformare i dati non elaborati in risposte utili alla specifica domanda aziendale in esame. Successivamente, formulava la query del database con termini molto specifici, come "Trova tutti i clienti di età compresa tra 20 e 40 anni che vivono a New York e che hanno speso almeno 1.000 USD in prodotti beauty nell'ultimo anno".
Il data scientist estraeva quindi i dati necessari, li caricava su un'altra piattaforma e, nel corso di diverse settimane o addirittura mesi, determinava quali clienti assomigliavano a Claire nel proprio database.
Dato il lungo processo necessario per completare le tradizionali query sui database, "ci sono molti dati archiviati sui mainframe che in genere non sono l'obiettivo dell'AI generativa e da cui le aziende non ottengono insight", racconta a IBM Think Catherine Wu, Program Director per Db2 presso il Silicon Valley Lab di IBM.
Parte di ciò è dovuto ai costi e ai problemi di sicurezza associati allo spostamento dei dati in un ambiente esterno. "I clienti ci dicono che il solo spostamento dei dati rappresenta il 30-40% dei loro costi IT", afferma Wu. "Inoltre, una volta che i dati vengono spostati dal mainframe, non è possibile tracciarne la destinazione, il che rappresenta una grande preoccupazione per i clienti".
Gli LDM, al contrario, permettono agli utenti di cercare nei database e ottenere risposte molto più rapidamente e facilmente, sia che il database sia on-premise, sul cloud o in un ambiente ibrido. Quindi il rivenditore nell'esempio precedente potrebbe semplicemente interrogare il database per chiedere: "Elenca i 100 migliori clienti come Claire". E, nel giro di poco tempo, chiunque avesse una conoscenza di base di SQL potrebbe estrarre tali informazioni senza dover spostare i dati da nessuna parte, afferma Wu. IBM ha lanciato il suo primo prodotto database utilizzando un modello di database di grandi dimensioni chiamato SQL Data Insights (SQL DI), parte del database Db2 per z/OS situato sui mainframe IBM® Z che alimentao oltre il 70% delle transazioni finanziarie mondiali in termini di valore.
Come ha affermato Kate Soule, Direttore della gestione tecnica dei prodotti per Granite, in una recente puntata del podcast Mixture of Experts, gli LLM "spesso sono un overkill".
"I requisiti di formazione e ottimizzazione degli LDM possono essere soddisfatti con un'infrastruttura diversa rispetto agli LLM", afferma Lewis di IBM. "Non servono enormi quantità di GPU per risolvere i problemi che la maggior parte delle aziende deve risolvere. Rispetto a tutti i dati che potrebbero essere utilizzati per addestrare un LLM, un database aziendale di transazioni è relativamente piccolo." Ma, dice Lewis, i dati specifici dell'azienda possono creare "modelli specifici per ottenere un risultato specifico in modo più efficiente dal punto di vista dei costi, e spesso più efficace".
Con SQL DI di IBM, ogni valore all'interno di una colonna del database, indipendentemente dal tipo di dati, viene tradotto in un token di testo. "Di conseguenza, il modello percepisce ogni record del database come un bag of words in una frase di tipo inglese in cui ogni token mantiene una relazione paritaria con gli altri, indipendentemente dalla sua posizione nel record", afferma Akiko Hoshikawa, IBM Distinguished Engineer. Successivamente, SQL DI deduce i valori significativi del database basandosi sui valori delle colonne circostanti, sia all'interno che tra le righe della tabella. Con il modello addestrato in questo modo, quasi chiunque può eseguire una query AI su dati relazionali per rilevare e confrontare dati semanticamente simili direttamente all'interno del database.
Mentre molte aziende stanno esplorando i LDM come proof of concept, alcune imprese nel settore assicurativo e del retail stanno già utilizzando questi strumenti per accelerare il processo di estrazione di valore dai loro database.
Thomas Baumann, Data Evangelist presso Swiss Mobiliar, la più antica compagnia assicurativa della Svizzera, utilizza il SQL DI di IBM in diverse aree dell'azienda. Baumann ha iniziato a utilizzare SQL DI per aiutare l'azienda a personalizzare meglio i preventivi per l'assicurazione auto e aumentare le vendite. Quando un venditore interagiva con un potenziale nuovo titolare di una polizza assicurativa, poteva inserire un preventivo e il LDM estraeva i casi precedenti più simili per determinare la probabilità che il cliente lo accettasse.
"Poi, l'utente può modificare alcuni parametri, come ridurre le franchigie o offrire uno sconto più aggressivo, e poi ricalcolare le nuove probabilità di successo", afferma Baumann in un'intervista con IBM Think. "I preventivi sono molto più sofisticati e personalizzati in base alle esigenze dei singoli clienti rispetto al passato."
Quando ha utilizzato SQL DI di IBM per il prodotto assicurativo auto di Swiss Mobiliar, l'azienda ha addestrato il modello con circa 15 milioni di record di preventivi assicurativi automobili, ciascuno contenente diverse decine di attributi, come dati demografici, dati del veicolo e prezzo. Baumann afferma che il personale addetto alle vendite ha scoperto di poter formulare preventivi più scientifici controllando le probabilità di vari preventivi candidati prima di sceglierne uno.
Di conseguenza, hanno migliorato il tasso di chiusura delle vendite assicurative del 7% nel corso di sei mesi, un miglioramento che, secondo Baumann, avrebbe richiesto circa due anni senza l'uso degli LDM. Sulla base del successo di questo progetto pilota, Swiss Mobiliar ora utilizza LDM per tutti i suoi prodotti assicurativi (ad eccezione dell'assicurazione sulla vita), dall'assicurazione edilizia a quella familiare.
"I due principali vantaggi di SQL DI sono che è molto veloce passare dall'idea alla pre-produzione", afferma Baumann. "Inoltre, non è necessario spostare i dati da una piattaforma all'altra".
Oltre all'assicurazione, il team SQL DI di IBM sta anche collaborando con diversi rivenditori alimentari negli Stati Uniti e in Europa interessati a utilizzare i LDM per offrire ai clienti esperienze di acquisto più personalizzate. Un cliente potrebbe, ad esempio, avere in mano un tipo di cereali ed eseguire una query semantica nel database per trovare cereali alternativi dal sapore simile ma con un profilo nutrizionale più sano. Gli LDM utilizzati per fornire suggerimenti sono come "raccomandazioni Amazon o Netflix più sofisticate e personalizzate", afferma Hoshikawa.
Oltre alle applicazioni rivolte al cliente, le aziende stanno già implementando gli LDM in molte aree del B2B, come il rilevamento delle anomalie e delle frodi in tempo reale. Ad esempio, qualsiasi azienda che emette contratti può utilizzare un LDM per identificare rapidamente i contratti anomali, afferma Hoshikawa di IBM.
Nel frattempo, gli LDM possono anche consentire un rilevamento delle frodi in tempo reale più sofisticato. Oltre a identificare le transazioni che non seguono i modelli tipici, gli LDM possono interrogare i database per identificare i record che includono vari attributi associati a comportamenti sospetti, come aziende che mancano di report del Better Business Bureau o che non hanno indirizzi fisici.
Lewis ritiene che gli LLM e gli LDM saranno seguiti da molti altri modelli specializzati. "Crediamo che gli LDM, proprio come gli LLM, siano uno strumento prezioso per abilitare un'ondata di applicazioni agentiche e contribuire a migliorare i risultati", afferma. "Ma non ci aspettiamo che vengano utilizzati sempre in modo isolato. Anzi, crediamo che lo scenario ideale sia quello di integrare gli LDM nel modello di dati aziendale e combinarli con gli LLM e altri modelli adatti allo scopo per generare un valore nuovissimo su larga scala per le aziende e per la società".
Allo stesso modo, Lewis non si aspetta che un'impresa o un'organizzazione domini. "Non diamo per scontato che sarà una sola azienda, o l'azienda che ha più server e più GPU, a sviluppare il modello universale", dice Lewis. "Non credo che sarà così. Penso che potremo ottenere i massimi insight attingendo alle conoscenze specialistiche di esperti in diversi campi. Credo che la capacità di combinare LLM, LDM e future ondate di modelli appositamente creati porterà a insight davvero nuovi e a risultati realmente ottimizzati".
Usa le soluzioni di database di IBM per soddisfare varie esigenze di workload nell'hybrid cloud.
Esplora IBM DB2, un database relazionale che offre prestazioni, scalabilità e affidabilità elevate per l'archiviazione e la gestione di dati strutturati. È disponibile come SaaS su IBM Cloud o in self-hosting.
Sblocca il valore dei dati enterprise con IBM Consulting, creando un'organizzazione basata su insight in grado di generare vantaggi aziendali.