Was ist LangChain?

Autoren

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

Was ist LangChain?

LangChain ist ein Open-Source-Orchestrierungs-Framework für die Entwicklung von Anwendungen mit großen Sprachmodellen (LLMs). Die Tools und APIs von LangChain sind sowohl in Python- als auch Javascript-basierten Bibliotheken verfügbar und vereinfachen die Erstellung von LLM-basierten Anwendungen wie Chatbots und KI-Agenten . 

LangChain dient als generische Schnittstelle für fast jedes LLM und bietet eine zentrale Entwicklungsumgebung, um LLM-Anwendungen zu erstellen und sie in externe Datenquellen und Software-Workflows zu integrieren. Der modulbasierte Ansatz von LangChain ermöglicht es Entwicklern und Data Scientists, verschiedene Eingabeaufforderungen und sogar verschiedene Foundation Models dynamisch zu vergleichen, ohne dass Code neu geschrieben werden muss. Diese modulare Umgebung ermöglicht auch Programme, die mehrere LLMs verwenden, z. B. eine Anwendung, die ein LLM zum Interpretieren von Benutzerabfragen und ein anderes LLM zum Verfassen einer Antwort verwendet. 

LangChain wurde im Oktober 2022 von Harrison Chase ins Leben gerufen und erlebte einen kompetenten Aufstieg zur Bekanntheit: Im Juni 2023 war es das am schnellsten wachsende Open-Source-Projekt auf Github. 1 Zeitgleich mit dem bedeutenden Start von OpenAIs ChatGPT im darauffolgenden Monat hat LangChain eine bedeutende Rolle dabei gespielt,generative KI (genAI) im Zuge ihrer großen Popularität für Enthusiasten und Start-ups zugänglicher zu machen. Fortschritte bei der Zugänglichkeit von agentischer KI ermöglichen derzeit eine Revolution in der Automatisierung.

LangChain kann die meisten Anwendungsfälle für LLMs und die Verarbeitung natürlicher Sprache (NLP) erleichtern, wie Chatbots, intelligente Suche, Frage-Antwort-Dienste, Zusammenfassungsdienste oder sogar KI-Agenten, die zur Robotic Process Automation fähig sind.

Integrationen mit LLMs

LLMs sind keine eigenständigen Anwendungen: Sie sind vortrainierte statistische Modelle, die mit einer Anwendung (und in einigen Fällen bestimmten Datenquellen) kombiniert werden müssen, um ihren Zweck zu erfüllen. 

Chat-GPT ist beispielsweise kein LLM: Es ist eine Chatbot-Anwendung, die je nach gewählter Version das Sprachmodell GPT-3.5 oder GPT-4 verwendet. Während das GPT-Modell die Eingaben des Benutzers interpretiert und eine Antwort in natürlicher Sprache verfasst, ist es die Anwendung, die (unter anderem) eine Schnittstelle für den Benutzer zum Tippen und Lesen sowie ein UX-Design bereitstellt, das die Chatbot-Erfahrung bestimmt. Selbst auf Unternehmensebene ist Chat-GPT nicht die einzige Anwendung, die das GPT-Modell nutzt: Microsoft setzt GPT-4 ein, um Bing Chat anzutreiben.

Darüber hinaus sind Foundation Models (wie die, die LLMs unterstützen) zwar mit riesigen Datensätzen vortrainiert, aber nicht allwissend. Wenn eine bestimmte Aufgabe den Zugang zu spezifischen Kontextinformationen erfordert, wie z. B. interne Dokumentation oder Fachwissen, müssen LLMs mit diesen externen Datenquellen verbunden sein. Selbst wenn Sie nur wollen, dass Ihr Modell das aktuelle Geschehen in Echtzeit wiedergibt, benötigt es externe Informationen: Die internen Daten eines Modells sind nur über den Zeitraum aktuell, in dem es trainiert wurde.

Wenn eine bestimmte generative KI-Aufgabe beispielsweise Zugriff auf externe Software-Workflows erfordert – wenn Sie beispielsweise möchten, dass Ihr virtueller Agent in Slack integriert wird –, benötigen Sie eine Möglichkeit, das LLM mit der API für diese Software zu integrieren.

Während diese Integrationen im Allgemeinen mit vollständig manuellem Code erreicht werden können, vereinfachen Orchestrierungs-Frameworks wie LangChain und das IBM watsonx Portfolio an Produkten für künstliche Intelligenz den Prozess erheblich. Sie erleichtern auch das Experimentieren mit verschiedenen LLMs, um Ergebnisse zu vergleichen, da sich verschiedene Modelle mit minimalen Änderungen am Code austauschen lassen.

Wie funktioniert LangChain?

Der Kern von LangChain ist eine Entwicklungsumgebung, die die Programmierung von LLM-Anwendungen durch Abstraktion vereinfacht: die Vereinfachung des Codes durch die Darstellung eines oder mehrerer komplexer Prozesse als benannte Komponente, die alle zugehörigen Schritte kapselt.

Abstraktionen sind ein übliches Element des Alltags und der Sprache. Mit „π“ können wir zum Beispiel das Verhältnis der Länge des Kreisumfangs zu dem seines Durchmessers darstellen, ohne seine unendlichen Ziffern ausschreiben zu müssen. Ein Thermostat ermöglicht es uns, die Temperatur in unserem Haus zu regeln, ohne dass wir die komplexen Schaltkreise verstehen müssen, die damit verbunden sind – wir müssen nur wissen, wie unterschiedliche Thermostateinstellungen zu unterschiedlichen Temperaturen führen.

LangChain ist im Wesentlichen eine Bibliothek mit Abstraktionen für Python und Javascript, die allgemeine Schritte und Konzepte darstellt, die für die Arbeit mit Sprachmodellen erforderlich sind. Diese modularen Komponenten – wie Funktionen und Objektklassen – dienen als Bausteine generativer KI-Programme. Sie können miteinander „verkettet“ werden, um Anwendungen zu erstellen, wodurch der Umfang des Codes und der für die Ausführung komplexer NLP-Aufgaben erforderlichen Feinkenntnisse minimiert wird. Obwohl der abstrakte Ansatz von LangChain das Ausmaß einschränkt, in dem ein erfahrener Programmierer eine Anwendung detailliert anpassen kann, ermöglicht er es Spezialisten und Neulingen gleichermaßen, schnell zu experimentieren und Prototypen zu erstellen.

Importieren von Sprachmodellen

Fast jedes LLM kann in LangChain verwendet werden. Das Importieren von Sprachmodellen in LangChain ist einfach, vorausgesetzt, Sie haben einen API-Schlüssel. Die Klasse LLM ist so konzipiert, dass sie eine Standardschnittstelle für alle Modelle bietet.

Bei den meisten LLM-Anbietern müssen Sie ein Konto erstellen, um einen API-Schlüssel zu erhalten. Einige dieser APIs – insbesondere diejenigen für proprietäre Closed-Source-Modelle, wie sie von OpenAI oder Anthropic angeboten werden – können mit Kosten verbunden sein.

Viele Open-Source-Modelle, wie LLaMa von Meta AI, Deepseek-LLM,Granite von IBM und Flan-T5 von Google, können über Hugging Face zugegriffen werden. IBM watsonx bietet durch seine Partnerschaft mit Hugging Face auch eine kuratierte Suite von Open-Source-Modellen an. Wenn Sie ein Konto bei einem der Dienste erstellen, können Sie einen API-Schlüssel für jedes der von diesem Anbieter angebotenen Modelle generieren.

LangChain ist nicht auf sofort einsatzfähige Foundation Models beschränkt: Die CustomLLM-Klasse  ermöglicht benutzerdefinierte LLM-Wrapper. Ebenso können Sie die IBM watsonx-APIs und Python-SDK verwenden, die eine LangChain-Integration enthalten, um Anwendungen in LangChain mit Modellen zu erstellen, die Sie bereits trainiert oder für Ihre spezifischen Anforderungen optimiert haben, indem Sie die watsonxLLM -Klasse (und die spezifische Projekt-ID des Modells) verwenden.

Prompt-Vorlagen

Prompts sind die Anweisungen, die einem LLM gegeben werden. Die „Kunst“, Prompts zu verfassen, die dem LLM den nötigen Kontext bieten, um Eingaben zu interpretieren und Ausgaben so zu strukturieren, wie es für Sie am nützlichsten ist, wird oft als Prompt Engineering bezeichnet.

Die PromptTemplate-Klasse in LangChain formalisiert die Zusammensetzung von Eingaben ohne manuellen Hartcode-Kontext und Abfragen. Wichtige Elemente einer Eingabe werden ebenso wie formelle Klassen wie input_variables eingegeben. Eine Prompt-Vorlage kann also Kontext, Anweisungen (wie „keine Fachbegriffe verwenden“), eine Reihe von Beispielen zur Anleitung der Antworten (im so genannten „Few-Shot-Prompting“), ein bestimmtes Ausgabeformat oder eine standardisierte Frage enthalten und wiedergeben. Sie können eine effektiv strukturierte Prompt-Vorlage speichern und benennen und sie nach Bedarf einfach wiederverwenden.

Obwohl diese Elemente alle manuell kodiert werden können, ermöglichen PromptTemplate-Module eine reibungslose Integration mit anderen LangChain-Funktionen, wie den gleichnamigen Ketten.

Ketten

Wie der Name schon sagt, sind Ketten der Kern der Workflows von LangChain. Sie kombinieren LLMs mit anderen Komponenten und erstellen Anwendungen, indem sie eine Abfolge von Funktionen ausführen.

Die grundlegendste Kette ist LLMChain. Sie ruft einfach ein Modell auf und fordert eine Vorlage für dieses Modell auf. Stellen Sie sich beispielsweise vor, Sie haben einen Prompt als „ExamplePrompt“ gespeichert und möchten ihn für Flan-T5 ausführen. Sie können LLMChain von langchain.chains importieren, dann chain_example = LLMChain(llm = flan-t5, prompt = ExamplePrompt) definieren. Um die Kette für einen bestimmten Eingang auszuführen, rufen Sie einfach chain_example.run("input") auf.

Um die Ausgabe einer Funktion als Eingabe für die nächste Funktion zu verwenden, können Sie SimpleSequentialChain verwenden. Für jede Funktion können je nach Bedarf unterschiedliche Eingabeaufforderungen, unterschiedliche Werkzeuge, unterschiedliche Parameter oder sogar unterschiedliche Modelle verwendet werden. 

Indexe

Um bestimmte Aufgaben zu erfüllen, benötigen LLMs Zugriff auf bestimmte externe Datenquellen, die nicht in ihrem Trainingsdatensatz enthalten sind, wie z. B. interne Dokumente, E-Mails oder Datensätze. LangChain bezeichnet solche externe Dokumentation zusammenfassend als „Indexe“.

Dokumentenlader

LangChain bietet eine Vielzahl von Dokumentenladern für Anwendungen von Drittanbietern (Link befindet sich außerhalb von ibm.com). Dies ermöglicht das einfache Importieren von Daten aus Quellen wie File-Storage-Diensten (wie Dropbox, Google Drive und Microsoft OneDrive), Webinhalten (wie YouTube, PubMed oder spezifische URLs), Kollaborationstools (wie Airtable, Trello, Figma und Notion), Datenbanken (wie Pandas, MongoDB und Microsoft) usw.

Vektordatenbanken

Im Gegensatz zu „herkömmlichen“ strukturierten Datenbanken stellen Vektordatenbanken Datenpunkte dar, indem sie sie in Vektoreinbettungen umwandeln: numerische Darstellungen in Form von Vektoren mit einer festen Anzahl von Dimensionen, die häufig verwandte Datenpunkte mithilfe unüberwachter Lernmethoden gruppieren. Dies ermöglicht Abfragen mit geringer Latenz, selbst für große Datensätze, was die Effizienz erheblich steigert. Vektor-Einbettungen speichern auch die Metadaten der einzelnen Vektoren, was die Suchmöglichkeiten weiter verbessert.

LangChain bietet Integrationen für über 25 verschiedene Einbettungsmethoden sowie für über 50 verschiedene Vektorspeicher (sowohl in der Cloud gehostet als auch lokal). 

Textteiler 

Um die Geschwindigkeit zu erhöhen und den Rechenaufwand zu reduzieren, ist es oft ratsam, große Textdokumente in kleinere Teile aufzuteilen. Die TextSplitter von LangChain zerlegen den Text in kleine, semantisch sinnvolle Abschnitte, die anschließend mit Methoden und Parametern Ihrer Wahl kombiniert werden können.

Abrufen

Sobald externe Wissensquellen angeschlossen sind, muss das Modell in der Lage sein, relevante Informationen bei Bedarf schnell abzurufen und zu integrieren. Wie watsonx bietet LangChain Retrieval Augmented Generation (RAG): Die Retriever -Module akzeptieren eine Zeichenfolgenabfrage als Eingabe und geben eine Liste der Dokument-Ausgaben zurück.

Mit LangChain können wir auch agentische RAG-Systeme aufbauen. In traditionellen RAG-Anwendungen wird dem LLM eine Vektordatenbank zur Verfügung gestellt, auf die es bei der Erstellung seiner Antworten zurückgreifen kann. Im Gegensatz dazu sind agentische KI-Anwendungen nicht nur auf die Datenabfrage beschränkt. Agenic RAG kann auch Tools für Aufgaben wie das Lösen mathematischer Berechnungen, das Schreiben von E-Mails, das Durchführen von Datenanalysen und mehr enthalten.

Hauptspeicher

LLMs haben standardmäßig keine langfristige Erinnerung an vorherige Interaktionen (es sei denn, der Chatverlauf wird als Eingabe für eine Abfrage verwendet). LangChain löst dieses Problem mit einfachen Hilfsprogrammen zum Hinzufügen von Speicherplatz zu einem System, mit Optionen, die von der Speicherung der Gesamtheit aller Unterhaltungen über die Speicherung einer Zusammenfassung der bisherigen Unterhaltungen bis hin zur Speicherung der letzten n Unterhaltungen reichen.

Tools

Trotz ihrer vielgepriesenen Leistungsfähigkeit und Vielseitigkeit weisen LLMs wichtige Einschränkungen auf: nämlich einen Mangel an aktuellen Informationen, einen Mangel an fachspezifischem Fachwissen und allgemeine Schwierigkeiten mit Mathematik. 

LangChain-Tools sind eine Reihe von Funktionen, die es LangChain-Agenten ermöglichen, mit realen Informationen zu interagieren, um die von ihnen bereitgestellten Dienste zu erweitern oder zu verbessern. Beispiele für bekannte vorbereitete LangChain-Tools sind:

  • Wolfram Alpha: Bietet Zugriff auf leistungsstarke Rechen- und Datenvisualisierungsfunktionen und ermöglicht anspruchsvolle mathematische Funktionen.

  • Google-Suche: Bietet Zugriff auf die Google-Suche und versorgt Anwendungen und Agenten mit Echtzeitinformationen.

  • OpenWeatherMap: ruft Wetterinformationen ab.

  • Wikipedia: bietet effizienten Zugriff auf Informationen aus Wikipedia-Artikeln.

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

LangChain-Agenten

Mit dem LangChain-Framework können wir einen Agenten erstellen, der einem LLM die Fähigkeit verleiht, Entscheidungen zu treffen, Tools zu verwenden und komplexe Aufgaben Schritt für Schritt auszuführen, anstatt nur eine einzige Textantwort zu generieren. Im Gegensatz zu einer einfachen Frage-Antwort-Interaktion mit nur einem LLM kann ein mit LangChain betriebener Agent denken, planen, eine Abfolge von Aktionen ausführen, lernen und sich anpassen.

LangChain bietet eine optimierte Benutzererfahrung mit einem vorgefertigten, erweiterbaren Framework für die Erstellung von KI-Agenten, sodass keine neue Logik für die Toolauswahl, Argumentationsschleifen (wie für ReAct-Agenten), Beobachtungs-/Aktionsverfolgung oder Prompt-Orchestrierung und Formatierung erstellt werden müssen.

Die spezifischen LangChain-Pakete, -Klassen und -Methoden variieren je nach KI-Plattform, die Sie verwenden möchten. Zu den wichtigsten Komponenten der WatsonxLLM-Klasse, die Kommunikation mit watsonx.ai-Modellen über LangChain ermöglichen, gehören:

  • langchain_ibm: Das Paket, das für die LangChain-IBM-Integration verantwortlich ist. Dieses Paket muss installiert sein, um eine der folgenden Klassen und Methoden verwenden zu können.
  • ibm_watsonx_ai: Die Bibliothek, die eine Verbindung zu watsonx.ai-Diensten wie IBM Cloud und IBM Cloud Pak for Data ermöglicht.
  • APIClient: Die Hauptklasse der ibm_watsonx_ai Bibliothek, die API Service Ressourcen verwaltet. Zu den Parametern gehören die API-Anmeldeinformationen und der Endpunkt.
  • WatsonxLLM: Der Wrapper für IBM watsonx.ai Foundation Models. Dieser Wrapper ermöglicht die Integration der Kette und ist für den Import erforderlich. Zu den Parametern gehören die Modell-ID, der watsonx.ai API-Schlüssel, die URL, die Projekt-ID sowie alle LLM-Parameter.
  • ModelInference: Die Klasse, bei der die Modellschnittstelle beginnt. Zu den Parametern gehören die Modell-ID, watsonx.ai-Zugangsdaten, die Projekt-ID, Modellparameter und mehr. Sobald das Modell gestartet ist, kann es an die Klasse übergeben werden.
  • invoke: Die Methode, die das Modell direkt mit einem einzelnen Prompt vom Zeichenfolgentyp aufruft. 
  • generate: Die Methode, die das Modell mit mehreren Prompt vom Typ Zeichenfolge in einer Liste aufruft.

Eine weitere LangChain-Klasse zum Erstellen von KI-Agenten mit der Integration von Toolaufrufen und -verkettungen mit watsonx.ai-Modellen ist ChatWatsonx. Diese Klasse, die in vielen unserer Tutorials genutzt wird, nutzt die Methode bind_tools, um bei jeder Iteration eine Liste von Tools an das LLM zu übergeben. Dazu können sowohl benutzerdefinierte als auch vorgefertigte Tools gehören. Um die Antwort des KI-Agenten abzurufen, kann die Invoke-Methode verwendet werden. Sobald der Agent aufgerufen wurde, zeigt das Attribut tool_calls der Antwort den Namen, die Argumente, die ID und den Typ jedes erfolgten Toolaufrufs an, sofern vorhanden.

LangGraph

LangGraph, erstellt von LangChain, ist ein Open-Source-Framework für KI-Agenten, das die Orchestrierung mehrerer Agenten unterstützt und es Entwicklern ermöglicht, operative Workflows zu erstellen, in denen verschiedene Agenten interagieren, sich spezialisieren und zusammenarbeiten. 

Im Kern nutzt LangGraph die Leistungsfähigkeit graphenbasierter Architekturen, um die komplizierten Beziehungen zwischen verschiedenen Komponenten eines KI-Agenten-Workflows zu modellieren und zu verwalten. In Kombination mit dem Human-in-the-Loop-Überwachungsmechanismus und einer Reihe von API- und Tool-Integrationen bietet LangGraph den Anwendern eine vielseitige Plattform für die Entwicklung von KI-Lösungen und Workflows, einschließlich Chatbots, Zustandsgraphen und anderen agentenbasierten Systemen

Mit der langchain-mcp-adapters-Bibliothek können LangGraph-Agenten auch Tools verwenden, die auf MCP-Servern (Model Context Protocol) definiert sind. Die mcp-Bibliothek ermöglicht es Benutzern, auch benutzerdefinierte MCP-Server zu erstellen. Im Wesentlichen ermöglicht MCP eine sichere Verbindung zwischen einem KI-System, wie z. B. einem KI-Agenten, und externen Tools. So können verschiedene LLMs mit dem Standard-MCP eine Verbindung zu denselben Tools und Datenquellen herstellen. 

AI Academy

Warum Foundation Models einen Paradigmenwechsel für die KI bedeuten

Erfahren Sie mehr über eine neue Klasse flexibler, wiederverwendbarer KI-Modelle, die neue Einnahmen erschließen, Kosten senken und die Produktivität steigern können. Dann nutzen Sie unseren Leitfaden, um mehr zu erfahren.

LangSmith

LangSmith wurde im Herbst 2023 veröffentlicht und soll die Lücke zwischen den zugänglichen Prototyping-Funktionen, die LangChain bekannt gemacht haben, und der Erstellung von LLM-Anwendungen in Produktionsqualität schließen. 

LangSmith bietet Tools zum Überwachen, Bewerten und Debuggen von Anwendungen, einschließlich der Möglichkeit, alle Modellaufrufe automatisch zu verfolgen, um Fehler zu erkennen und die Leistung unter verschiedenen Modellkonfigurationen zu testen. Die Verwendung von LangSmith ist nicht auf Anwendungen beschränkt, die mit dem LangChain-Ökosystem erstellt wurden. Die Bewertung der Agentenleistung erfolgt mithilfe von LLM-as-a-Judge-Evaluatoren. Diese Observability und diese Schlüssel-Metriken zielen darauf ab, robustere und kosteneffizientere Anwendungen zu optimieren. 

Erste Schritte mit LangChain

LangChain ist Open Source und kann kostenlos verwendet werden: Quellcode ist für den Download auf Github verfügbar.

LangChain kann auch mit einem einfachen Pip-Befehl auf Python installiert werden: pip install langchain. Um alle LangChain-Abhängigkeiten zu installieren (statt nur diejenigen, die Sie finden), können Sie den Befehl pip install langchain[all] ausführen.

IBM stellt viele Schritt-für-Schritt-Anleitungen zur Verfügung, darunter LangChain-Tool-Aufruf, Agentic RAG, LLM Agent Orchestration, Agentic Chunking und mehr.

Anwendungsfälle von LangChain

KI-Anwendungen, die mit LangChain erstellt wurden, bieten einen großen Nutzen für eine Vielzahl von Anwendungsfällen, von einfachen Aufgaben zur Beantwortung von Fragen und zur Texterstellung bis hin zu komplexeren Lösungen, die ein LLM als „Argumentationsmaschine“ verwenden.

Chatbots

Chatbots gehören zu den intuitivsten Anwendungen von LLMs. LangChain kann verwendet werden, um den richtigen Kontext für den spezifischen Einsatz eines Chatbots bereitzustellen und Chatbots mit ihren eigenen APIs in bestehende Kommunikationskanäle und Workflows zu integrieren.

Zusammenfassung

Sprachmodelle können damit beauftragt werden, verschiedene Arten von Text zusammenzufassen, von der Zusammenfassung komplexer wissenschaftlicher Artikel und Transkripte bis hin zur Erstellung eines Überblicks über eingehende E-Mails.

Beantworten von Fragen

Mithilfe spezifischer Dokumente oder spezialisierter Wissensdatenbanken (wie Wolfram, arXiv oder PubMed) können LLMs relevante Informationen aus dem Speicher abrufen und hilfreiche Antworten formulieren. Bei entsprechender Feinabstimmung oder entsprechender Anregung können einige LLMs viele Fragen auch ohne externe Informationen beantworten.

Datenerweiterung

LLMs können verwendet werden, um synthetische Daten zur Verwendung in maschinellem Lernen zu generieren. Beispielsweise kann ein LLM trainiert werden, um zusätzliche Datenproben zu generieren, die den Datenpunkten in einem Trainingsdatensatz sehr ähnlich sind.

Virtuelle Agenten

Die Agentenmodule von LangChain sind in die richtigen Workflows integriert und können mithilfe eines LLM autonom die nächsten Schritte festlegen und mithilfe von Robotic Process Automation (RPA) Maßnahmen ergreifen.

Weiterführende Lösungen
Basismodelle

Erkunden Sie die Foundation-Model-Bibliothek im watsonx-Portfolio von IBM zur zuverlässigen Skalierung generativer KI für Ihr Unternehmen.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Erkunden Sie die Foundation-Model-Bibliothek im watsonx-Portfolio von IBM zur zuverlässigen Skalierung generativer KI für Ihr Unternehmen.

watsonx.ai erkunden Erkunden Sie KI-Lösungen