Lernen Sie LDMs kennen, den neuen (KI-)Sheriff in der Stadt

Frau, die in einem Rechenzentrum arbeitet und auf einen Laptop blickt

Dank ChatGPT und Dutzenden anderer Chatbots, die auf Foundation Model basieren, sind Large Language Models (LLMs) mittlerweile nahezu überall bekannt. Aber wie sieht es mit großen Datenbankmodellen (LDMs) aus?

„LDMs sind Modelle, die darauf ausgelegt sind, Erkenntnisse aus großen Datensätzen und Transaktionsströmen zu gewinnen, anstatt aus menschlicher Sprache und Text, was eher der Domäne von LLMs und Chatbots entspricht“, erklärte Ric Lewis, Senior Vice President of Infrastructure bei IBM, auf dem IBM 2025 Investor Day.

Während LLMs anhand öffentlich zugänglicher Daten wie Büchern, Artikeln, Wikipedia und verschiedenen anderen Quellen trainiert werden, umfassen ihre Trainingsmaterialien in der Regel nicht die umfangreichen Datenmengen innerhalb von Unternehmen. Tatsächlich werden derzeit nur 1 % der Unternehmensdaten in Large Language Models verwendet.

LDMs hingegen werden unter anderem anhand von Transaktionsaufzeichnungen, Produktinformationen, Kundenbeziehungsdaten, Schulungsprotokollen und Mitarbeiteraufzeichnungen sowie anderen Unternehmensdaten trainiert. Dadurch können Unternehmen LDMs einsetzen, um mithilfe von dialogorientierten Fragen in einem als semantische Suche bezeichneten Prozess die Bedeutung der ungenutzten 99 % der Daten in ihren Datenbanken aufzudecken. Die semantische Suche geht über das Abgleichen von Schlüsselwörtern hinaus und versucht, die Bedeutung und den Kontext hinter der Suchanfrage eines Benutzers zu verstehen.

„LDMs stellen eine spannende neue Möglichkeit dar, die in Geschäftsanwendungen und Transaktionsabläufen enthaltenen Daten zu nutzen, um neue Erkenntnisse und neuen Wert für das Unternehmen zu gewinnen“, erklärt Lewis in einem Interview mit IBM Think. „Obwohl LDMs gerade erst im Entstehen sind, sind wir optimistisch, was ihr Potenzial angeht, als Grundlage für agentische Anwendungen genutzt zu werden und Unternehmen dabei zu helfen, verbesserte Ergebnisse zu erzielen“, erklärt er und fügt hinzu, dass diese Modelle bereits eingesetzt werden, um KI in Transaktionsprozesse zu integrieren.

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Wie funktionieren LDMs?

Nehmen wir beispielsweise ein Einzelhandelsunternehmen, das Kunden identifizieren möchte, deren durchschnittliche Kaufkraft und Kaufhistorie denen einer Kundin namens Claire entsprechen, die kürzlich das Geschäft besucht und starkes Interesse an einem neuen Schönheitsprodukt bekundet hat.  Traditionell würde der Data Scientist des Einzelhändlers zunächst die Pipeline definieren – also die Prozesse, mit denen Rohdaten in nützliche Antworten auf die jeweilige geschäftliche Fragestellung umgewandelt werden. Anschließend formulierten sie die Datenbankabfrage mit sehr spezifischen Begriffen, wie beispielsweise: „Finden Sie alle Kunden im Alter zwischen 20 und 40 Jahren, die in New York leben und im vergangenen Jahr mindestens 1.000 US-Dollar für Schönheitsprodukte ausgegeben haben.“

Der Data Scientist würde dann die erforderlichen Daten extrahieren, sie auf eine andere Plattform laden und über einen Zeitraum von Wochen oder Monaten ermitteln, welche Kunden in ihrer Datenbank Claire ähnelten.

Angesichts des umfangreichen Prozesses, der mit der Durchführung herkömmlicher Datenbankabfragen verbunden ist, gibt es eine Vielzahl von Daten auf den Mainframes von Unternehmen, die in der Regel nicht das Ziel generativer KI sind und aus denen Unternehmen keine Erkenntnisse gewinnen“, erklärt Catherine Wu, Programmdirektorin für Db2 im Silicon Valley Lab von IBM, gegenüber IBM Think.

Ein Teil davon ist auf die Kosten und Sicherheitsbedenken zurückzuführen, die mit der Übertragung von Daten in eine externe Umgebung verbunden sind. „Kunden berichten uns, dass allein die Datenübertragung 30 bis 40 % ihrer IT-Kosten ausmacht“, erklärt Wu. „Außerdem können sie nicht nachverfolgen, wohin die Daten übertragen werden, sobald sie ihren Mainframe verlassen haben, was für Kunden ein großes Problem darstellt.“

Mit LDMs hingegen können Benutzer Datenbanken durchsuchen und Antworten wesentlich schneller und einfacher erhalten, unabhängig davon, ob sich die Datenbank vor Ort, in der Cloud oder in einer Hybridumgebung befindet. Der Einzelhändler im obigen Beispiel könnte also einfach die Datenbank abfragen und fragen: „Liste die 100 besten Kunden wie Claire auf.“ Und kurze Zeit später könnte jeder mit grundlegenden SQL-Kenntnissen diese Informationen abrufen, ohne Daten verschieben zu müssen, so Wu. IBM brachte 2022 sein erstes Datenbankprodukt mit einem großen Datenbankmodell namens SQL Data Insights (SQL DI) auf den Markt, das Teil der Db2 for z/OS auf IBM Z Mainframes ist, über die mehr als 70 % der weltweiten Finanztransaktionen nach Wert abgewickelt werden.

Kleiner, besser und schneller

Wie Kate Soule, Director of Technical Product Management bei Granite, kürzlich in einer Folge des Podcasts Mixture of Experts erklärte, können LLMs „oft überdimensioniert sein”.

„Die Anforderungen an das Training und die Feinabstimmung von LDMs können mit einer anderen Infrastruktur als bei LLMs erfüllt werden“, erklärt Lewis von IBM. „Man benötigt keine umfangreichen GPU-Farmen, um die Probleme anzugehen, die die meisten Unternehmen zu lösen versuchen. Im Vergleich zu allen Daten, die zum Trainieren eines LLM verwendet werden könnten, ist eine Unternehmensdatenbank mit Transaktionen relativ klein.“ Lewis merkt jedoch an, dass unternehmensspezifische Daten „spezifische Modelle erstellen können, um ein bestimmtes Ergebnis kosteneffizienter und oft auch effektiver zu erzielen“.

Mit IBM SQL DI wird jeder Wert in einer Datenbankspalte, unabhängig von seinem Datentyp, in ein Text-Token übersetzt. „Folglich betrachtet das Modell jeden Datenbankeintrag als eine ungeordnete Ansammlung von Wörtern in einem englischähnlichen Satz, in dem jedes Token unabhängig von seiner Position im Eintrag eine gleichberechtigte Beziehung zu den anderen hat“, erklärt Akiko Hoshikawa, Distinguished Engineer bei IBM. Anschließend leitet SQL DI die signifikanten Datenbankwerte anhand der umgebenden Spaltenwerte sowohl innerhalb als auch über die Tabellenzeilen hinweg ab. Mit dem auf diese Weise trainierten Modell kann nahezu jeder eine KI-Abfrage zu relationalen Daten durchführen, um semantisch ähnliche Daten direkt in der Datenbank zu erkennen und abzugleichen.

Mixture of Experts | 12. Dezember, Folge 85

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

LDMs im Versicherungswesen, Einzelhandel und Betrugserkennung

Während viele Unternehmen LDMs als Proof-of-Concept evaluieren, setzen einige Unternehmen aus der Versicherungs- und Einzelhandelsbranche diese Tools bereits ein, um die Wertgewinnung aus ihren Datenbanken zu beschleunigen.

Thomas Baumann, Data Evangelist bei der Schweizerischen Mobiliar, der ältesten Versicherungsgesellschaft der Schweiz, setzt IBMs SQL DI in mehreren Bereichen des Unternehmens ein. Baumann begann, SQL DI einzusetzen, um dem Unternehmen dabei zu unterstützen, Kfz-Versicherungsangebote besser anzupassen und so den Umsatz zu steigern. Wenn ein Vertriebsmitarbeiter mit einem potenziellen neuen Versicherungsnehmer interagierte, konnte er ein Angebot eingeben, und das LDM extrahierte die ähnlichsten früheren Fälle, um die Wahrscheinlichkeit zu ermitteln, mit der der Kunde das Angebot annehmen würde.

„Anschließend kann der Nutzer einige Parameter ändern, beispielsweise die Selbstbeteiligung senken oder einen attraktiveren Rabatt anbieten, woraufhin die neuen Erfolgswahrscheinlichkeiten neu berechnet werden“, erklärt Baumann in einem Interview mit IBM Think. „Die Angebote sind wesentlich differenzierter und individueller auf die einzelnen Kunden zugeschnitten als jemals zuvor.“

Bei der Verwendung von IBMs SQL DI für das Kfz-Versicherungsprodukt der Schweizerischen Mobiliar trainierte das Unternehmen das Modell mit etwa 15 Millionen Datensätzen mit Angebotsdaten für Kfz-Versicherungen, wobei jeder Datensatz mehrere Dutzend Attribute enthielt, wie beispielsweise demografische Daten, Fahrzeugdaten und Preis. Laut Herrn Baumann haben die Vertriebsmitarbeiter festgestellt, dass sie fundiertere Angebote erstellen können, indem sie die Chancen verschiedener Angebotsoptionen prüfen, bevor sie sich für eine entscheiden.

Dadurch konnten sie die Abschlussquote bei Versicherungsverträgen innerhalb von sechs Monaten um 7 % steigern – eine Verbesserung, die laut Baumann ohne den Einsatz von LDMs etwa zwei Jahre gedauert hätte. Aufgrund des Erfolgs dieses Pilotprojekts setzt die Schweizerische Mobiliar nun LDMs für alle ihre Versicherungsprodukte (mit Ausnahme von Lebensversicherungen) ein, von der Gebäudeversicherung bis zur Hausratversicherung.

„Die beiden Hauptvorteile von SQL DI sind, dass es sehr schnell ist, von der Idee zur Vorproduktion zu gelangen“, sagt Baumann. „Außerdem müssen Daten nicht von einer Plattform auf eine andere verschoben werden.“

Über den Versicherungsbereich hinaus arbeitet das SQL DI-Team von IBM auch mit mehreren Lebensmitteleinzelhändlern in den USA und Europa zusammen, die daran interessiert sind, LDMs einzusetzen, um ihren Kunden ein individuelleres Einkaufserlebnis zu bieten. Ein Kunde könnte beispielsweise eine bestimmte Müslisorte in der Hand halten und eine semantische Abfrage in der Datenbank durchführen, um alternative Müslisorten anzuzeigen, die ähnlich schmecken, aber ein gesünderes Nährwertprofil aufweisen. LDMs, die zur Erstellung von Vorschlägen verwendet werden, sind laut Hoshikawa „ausgefeiltere, personalisierte Empfehlungen von Amazon oder Netflix“.

Über kundenorientierte Anwendungen hinaus stellen Unternehmen LDMs bereits in vielen B2B-Bereichen bereit, beispielsweise zur Erkennung von Anomalien und zur Echtzeit-Betrugserkennung. Jedes Unternehmen, das Verträge abschließt, könnte beispielsweise ein LDM einsetzen, um Verträge, die vom Üblichen abweichen, schnell zu identifizieren, so Hoshikawa von IBM.

Gleichzeitig können LDMs auch eine komplexere Echtzeit-Betrugserkennung ermöglichen. Neben der Identifizierung von Transaktionen, die nicht den typischen Mustern folgen, können LDMs Datenbanken abfragen, um Datensätze zu identifizieren, die verschiedene Merkmale mit verdächtigem Verhalten enthalten, wie z. B. Unternehmen, die keine Berichte des Better Business Bureau haben oder keine physischen Adressen besitzen.

Lewis ist der Ansicht, dass auf LLMs und LDMs viele weitere spezialisierte Modelle folgen werden. „Wir sind davon überzeugt, dass LDMs ebenso wie LLMs ein wertvolles Instrument sind, um eine Welle von agentenbasierten Anwendungen zu ermöglichen und zu besseren Ergebnissen beizutragen“, erklärt er. „Wir erwarten jedoch nicht, dass sie immer isoliert eingesetzt werden.“ Vielmehr glauben wir, dass das ideale Szenario darin besteht, LDMs in das Unternehmensdatenmodell zu integrieren und sie mit LLMs und anderen zweckmäßigen Modellen zu kombinieren, um in großem Maßstab massiv neue Werte für Unternehmen und die Gesellschaft zu schaffen.“

Ebenso rechnet Lewis nicht damit, dass ein einzelnes Unternehmen oder ein einzelnes Unternehmen zwangsläufig eine dominierende Rolle einnehmen wird. „Man sollte nicht davon ausgehen, dass es ein einzelnes Unternehmen oder das Unternehmen mit den meisten Servern und GPUs sein wird, das das Schweizer Taschenmesser unter den Modellen entwickeln wird“, erklärt Lewis. „Das glaube ich nicht.” Genauso wie ich denke, dass wir die besten Erkenntnisse gewinnen können, wenn wir das Fachwissen von Experten aus verschiedenen Bereichen nutzen, glaube ich, dass die Fähigkeit, LLMs, LDMs und zukünftige Wellen von speziell entwickelten Modellen zu kombinieren, zu wirklich neuen Erkenntnissen und zu Ergebnissen verursachen wird, die wirklich optimiert sind.

Weiterführende Lösungen
Datenbanksoftware und -lösungen

Mit IBM Datenbanklösungen können Sie verschiedene Workload-Anforderungen in der Hybrid Cloud erfüllen.

Datenbank-Lösungen erkunden
Cloudnativ-Datenbank mit IBM Db2

Erfahren Sie mehr über IBM Db2: eine relationale Datenbank, die hohe Leistung, Skalierbarkeit und Zuverlässigkeit für das Speichern und Verwaltung strukturierter Daten bietet. Die Lösung ist als SaaS in der IBM Cloud oder als Self-Hosting-Option verfügbar.

Db2 entdecken
Beratungsservices für Daten und Analysen

Erschließen Sie den Wert von Unternehmensdaten mit IBM Consulting und bauen Sie ein erkenntnisorientiertes Unternehmen auf, das Ihnen geschäftliche Vorteile verschafft.

Analyse-Services entdecken
Machen Sie den nächsten Schritt

Mit IBM Datenbanklösungen können Sie verschiedene Workload-Anforderungen in der Hybrid Cloud erfüllen.

Datenbank-Lösungen erkunden IBM Db2 entdecken