Was ist Tree-of-Thoughts-Prompting?

Autoren

Vrunda Gadesha

AI Advocate | Technical Content Author

Was ist ein Gedankenbaum?

„Tree of Thoughts (ToT)“ ist ein bahnbrechender Rahmen, der entwickelt wurde, um die Argumentationsfähigkeiten von Large Language Models (LLMs) zu verbessern. Dieser Ansatz simuliert menschliche kognitive Strategien zur Problemlösung und ermöglicht es LLMs, mehrere potenzielle Lösungen auf strukturierte Weise zu untersuchen, ähnlich wie bei den Verzweigungen eines Baumes.[1]

Abbildung mit einer Collage aus Piktogrammen, die Daten darstellen, die einen Gedankenbaum veranschaulichen

Wie funktioniert der Gedankenbaum?

ToT führt LLMs durch eine Reihe von Argumentationsschritten, wobei jeder Schritt in mehrere Pfade verzweigen kann, sodass das Modell bei Bedarf alternative Strategien zurückverfolgen oder erkunden kann. Zum Beispiel könnte das Lösen eines Sudoku-Rätsels das Modell dazu anleiten, verschiedene Zahlenplatzierungen auf Versuch-und-Irrtum-Basis zu erkunden. Es geht dann einen Schritt zurück, wenn eine Zahl zu einem Widerspruch führt, und probiert eine andere Zahl aus, bis das Rätsel gelöst ist. Dies ahmt die menschliche Herangehensweise an die Problemlösung nach, bei der mehrere Lösungen in Betracht gezogen und verworfen werden, wenn sie sich als falsch erweisen.[1][3]

Framework für den Gedankenbaum (Tree of Thought, ToT)

ToT ist ein ausgeklügeltes Framework, das darauf ausgelegt ist, die Problemlösungsfähigkeiten von LLMs zu verbessern, indem es ihre Argumentation in einer Weise strukturiert, die den menschlichen kognitiven Prozessen entspricht. Das Framework setzt sich aus vier Schlüsselkomponenten zusammen:

Gedankenzerlegung

Das ToT-Framework unterteilt ein Problem explizit in kleinere, überschaubare Schritte, die als Gedanken bezeichnet werden und zu einer Lösung zusammengefügt werden. Jeder Gedanke sollte die richtige Größe haben – nicht zu groß, um handhabbar zu sein, und nicht zu klein, um nützlich zu sein. Wenn Sie beispielsweise eine Reise planen, könnten Sie zunächst ein Reiseziel festlegen, dann das beste Transportmittel auswählen und schließlich eine Unterkunft suchen. In einem mathematischen Problem kann ein Gedanke eine einzelne Gleichungszeile oder eine präzise Erklärung eines Konzepts sein. Auf diese Weise wird das Problem in wichtige Schritte unterteilt, die leicht einzeln angegangen und ausgewertet werden können. Die Aufschlüsselung hängt von der Art des Problems ab, wobei sichergestellt werden muss, dass die Überlegungen sowohl aussagekräftig als auch für eine Bewertung durchführbar sind.

Gedankengenerierung

Nachdem definiert wurde, was einen Gedanken ausmacht, besteht der nächste Schritt darin, zu bestimmen, wie diese Gedanken generiert werden. Das Framework schlägt zwei primäre Techniken vor.[4]

  • Sampling: Bei dieser Technik werden mehrere Gedanken unabhängig voneinander generiert, indem derselbe Prompt verwendet wird. Das funktioniert am besten, wenn der Denkraum reichhaltig und vielfältig ist, da unabhängig voneinander generierte Gedanken weniger wahrscheinlich dupliziert werden. Beim kreativen Schreiben können beispielsweise mehrere unabhängige Handlungsstränge generiert werden.
  • Vorschlag: Diese Technik erzeugt nacheinander Gedanken mithilfe eines „Vorschlags-Prompts“. Jeder Gedanke baut auf dem vorherigen auf, wodurch Duplikate in begrenzteren Denkräumen vermieden werden. Zum Beispiel baut bei der logischen Problemlösung jeder Schritt auf dem vorherigen auf, um Konsistenz und Fortschritt zu gewährleisten.

Zustandsbewertung

Sobald Gedanken generiert wurden, müssen sie bewertet werden, um den Fortschritt in Richtung einer Lösung sicherzustellen. Das Framework verwendet zu diesem Zweck zwei Strategien:

  • Wert: Bei dieser Strategie wird jedem Zustand ein skalarer Wert (z. B. eine Bewertung von 1 bis 10) oder eine Klassifizierung (z. B. sicher, wahrscheinlich oder unmöglich) zugewiesen. Dies hilft dabei, die Qualität des Wertes oder die Wahrscheinlichkeit, dass er zu einer Lösung führt, anzugeben. Diese Methode ermöglicht eine quantitative Bewertung des Potenzials jedes Gedankens.
  • Abstimmen: Bei dieser Strategie werden verschiedene Lösungen verglichen und die vielversprechendste ausgewählt. Die Abstimmung ist besonders nützlich bei Aufgaben, bei denen die Qualität einer Lösung subjektiv oder schwer zu quantifizieren ist Mehrere Bewertungen werden kombiniert, um den besten Weg nach vorne zu bestimmen.

Suchalgorithmus:

Die letzte Komponente umfasst den Suchalgorithmus, mit dem durch den Lösungsraum navigiert wird. Das Framework verwendet in der Regel zwei grundlegende Algorithmen:

  • Breitensuche (Bread-First Search, BFS): Dieser Algorithmus untersucht alle möglichen Verzweigungen auf jeder Ebene, bevor er tiefer in den Baum vordringt. Es stellt sicher, dass alle potenziellen Lösungen gleichwertig berücksichtigt werden, was es für Probleme nützlich macht, bei denen der kürzeste Weg oder die oberflächlichste Lösung bevorzugt wird. Zum Beispiel würde BFS in einem Puzzlespiel alle unmittelbaren Züge überprüfen, bevor es die nachfolgenden in Betracht zieht.
  • Tiefensuche (Depth-First Search, DFS): Dieser Algorithmus untersucht einen Zweig gründlich, bevor er zurückverfolgt wird, um andere Zweige zu untersuchen. Sie ermöglicht eine gründliche Untersuchung jedes potenziellen Lösungswegs und ist daher nützlich bei Problemen, die eine detaillierte Untersuchung jeder Option erfordern. Zum Beispiel würde die DFS bei der Lösung eines komplexen logischen Problems einer einzelnen Hypothese tiefgehend nachgehen und ihre Gültigkeit überprüfen, bevor sie Alternativen in Betracht zieht.

Durch die Integration dieser Komponenten ahmt das ToT-Framework die menschliche Problemlösung nach, indem es systematisch mehrere Lösungen in Betracht zieht und die als falsch erkannten verwirft.

Flussdiagramm mit Gedankenzerlegung bis zur Gedankengenerierung und Suchalgorithmus bis zur Zustandsbewertung

Die operative Dynamik des ToT-Frameworks beinhaltet eine iterative, baumstrukturierte Erkundung möglicher Lösungen. Beginnend mit der ersten Eingabe generiert das Modell eine Reihe von Gedanken oder Antworten, die jeweils zu weiteren Abfragen oder Erweiterungen führen. Diese Zweige entwickeln sich, während das Modell verschiedene Argumentationswege untersucht. Es setzt die Verfolgung des Fortschritts und die Erkundung dieses gesamten Lösungsraums durch eine LLM-gestützte Selbstbewertung ein, um die Validität jedes Schritts sicherzustellen. Wenn eine bestimmte Argumentationslinie zu einem Widerspruch oder einer Sackgasse führt, kann das System zu einem vorherigen Knotenpunkt zurückkehren, um alternative Möglichkeiten zu erkunden.

Dieser strukturierte und dennoch flexible Ansatz ermöglicht es LLMs, komplexe, mehrstufige Argumentationsaufgaben effektiver zu bewältigen. Es ähnelt der menschlichen Fähigkeit, sich durch ein Labyrinth aus Gedanken und Optionen zu navigieren und Strategien bei Bedarf neu zu bewerten und anzupassen.

Im Wesentlichen stattet das ToT-Framework LLMs mit einer dem Menschen nachempfundenen Fähigkeit aus, Probleme zu analysieren und zu lösen, und steigert so ihre Effektivität bei Aufgaben, die tiefgreifendes, strategisches Denken und Entscheidungsfindung erfordern.

Unterschied zwischen Gedankenkette (Chain of Thoughts, CoT) und Gedankenbaum (Tree of Thoughts, ToT)

Die Frameworks Tree of Thought (ToT) und Chain of Thought (CoT) dienen als konzeptionelle Algorithmen für das Verständnis der Organisation und des Fortschritts der Textgenerierung in Sprachmodellen (Language Models, LMs) wie generativen vortrainierten Transformern (z. B. GPT-3 und GPT-4). ). Diese Prompting-Techniken sind Teil des Prompt Engineering, bei dem Eingaben (Prompts) erstellt werden, um LMs effektiv bei der Erzeugung der bevorzugten Outputs zu unterstützen.

Gedankenbaum-Prompting: Dieses Framework basiert auf der Fähigkeit des Modells, Texte hierarchisch zu generieren, wobei ein zentrales Thema oder eine Idee zu verzweigten Unterthemen und Details führt. Dieser Ansatz spiegelt wider, wie ein Modell eine bestimmte Eingabe erweitern kann, indem es immer spezifischeren und verwandteren Text generiert, ähnlich einer Baumstruktur. Er ermöglicht Vorausschau- und Baumsuchstrategien, bei denen das Modell mehrere Zweige erkunden kann, bevor es sich für einen Pfad entscheidet, wodurch er sich für allgemeine Problemlösungen und Szenarien eignet, die eine komplexe Entscheidungsfindung erfordern. Diese Methode beinhaltet eine vernünftige Argumentation und Heuristik, um die Qualität der einzelnen Zweige zu bewerten. Der Selbstkonsistenzmechanismus wird eingesetzt, um zuverlässige Bewertungen zu liefern, indem das Modell mehrmals aufgefordert („prompting“) wird.

Gedankenketten-Prompting: Im Gegensatz dazu entspricht dieses Konzept der Fähigkeit des Modells, Text in einer linearen, von links nach rechts verlaufenden Weise zu generieren, wobei jedes nachfolgende Token direkt von den vorhergehenden Token beeinflusst wird Diese sequenzielle Abfolge spiegelt einen einfacheren, geradlinigeren Ansatz zur Textgenerierung wider. CoT ist für Aufgaben geeignet, die einen klaren, schrittweisen logischen Ablauf erfordern. Das Lernen mit wenigen Beispielen, bei dem das Modell mit einigen wenigen Beispielen zum Lernen versorgt wird, kann diese Methode durch die Vermittlung von Kontextwissen verbessern. CoT dient als Basistechnik im Prompt Engineering, das eine grundlegende Methode bietet, die einfacher zu implementieren ist, aber möglicherweise nicht die Tiefe und Komplexität von ToT aufweist.

Vergleich und Anwendungen: Während ToT Prompting einen komplizierteren und vernetzteren Ansatz zur Texterstellung darstellt, spiegelt CoT durch die Verwendung von Baumsuche und Vorausschau-Strategien einen einfacheren, sequentiellen Ablauf wider. Die hierarchische Natur von TOT eignet sich für Aufgaben, die eine detaillierte Untersuchung mehrerer Lösungen erfordern, wie z. B. Szenarien des bestärkenden Lernens, bei denen Rückverfolgung und alternative Strategien von entscheidender Bedeutung sind. Der lineare Die lineare Progression von CoT ist jedoch ideal für Aufgaben, die eine klare, logische Gedankenabfolge erfordern.

In der Praxis verwenden APIs für LM, darunter GPT-3 und GPT-4, Prompting-Techniken wie ToT und CoT, um ihre Leistung bei verschiedenen Aufgaben zu verbessern, vom kreativen Schreiben bis hin zur komplexen Problemlösung.[2] Die Prompt-Technik entwickelt sich ständig weiter und bietet leistungsstarke Tools, um die Fähigkeiten fortschrittlicher Transformatoren in Sprachmodellen zu nutzen.

Denken Sie über Prompts hinaus und erfassen Sie den gesamten Kontext 

Bleiben Sie mit dem Think-Newsletter über die neuesten Branchennachrichten, KI-Tools und aufkommende Trends im Bereich Prompt Engineering auf dem Laufenden. Außerdem erhalten Sie Zugang zu neuen Erläuterungen, Tutorials und Experteneinblicken – direkt in Ihrem Posteingang. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Vorteile und Einschränkungen des Gedankenbaums

Das ToT-Framework stellt einen signifikanten Fortschritt in den Fähigkeiten von LLMs zur komplexen Problemlösung dar. Allerdings gibt es Kompromisse, die mit der zusätzlichen Komplexität verbunden sind, die mit der Implementierung dieses Frameworks einhergeht.

Vorteile

Das Framework bietet Vorteile für den Bereich der künstlichen Intelligenz, darunter:

Verbesserte Problemlösungsfähigkeiten

ToT verbessert die Problemlösungsfähigkeiten von LLMs erheblich, indem es ihnen ermöglicht, mehrere Denkpfade gleichzeitig zu erkunden. Dies spiegelt menschliche kognitive Prozesse wider, bei denen mehrere potenzielle Lösungen in Betracht gezogen und die praktikabelste Lösung ausgewählt wird. Bei Aufgaben, die strategisches Denken oder Planung erfordern, wie z. B. das Lösen von Worträtseln oder das kreative Schreiben, hat ToT im Vergleich zu herkömmlichen Methoden eine überlegene Leistung und höhere Erfolgsquoten erzielt. Diese erhöhte Fähigkeit zum komplexen Denken durch Zerlegung der Zwischenschritte zeigt sich besonders bei anspruchsvollen Aufgaben, bei denen die anfänglichen Entscheidungen einen großen Einfluss auf das Ergebnis haben.[4]

Umgang mit Unsicherheit

„Tree of uncertain thoughts (TouT)“, eine Erweiterung von ToT, befasst sich speziell mit den inhärenten Unsicherheiten, die in den Entscheidungsprozessen von LLMs vorhanden sind. Durch die Quantifizierung und das Management dieser Unsicherheiten ermöglicht TouT genauere und zuverlässigere Ergebnisse. Dabei werden Techniken wie der „Monte Carlo Dropout“ verwendet. Diese Technik wird beim maschinellen Lernen eingesetzt, insbesondere bei Deep-Learning-Modellen, um die Unsicherheit bei Vorhersagen abzuschätzen. Dabei werden Neuronen sowohl während des Trainings als auch während der Inferenz zufällig herausgenommen, wodurch mehrere verschiedene „Pfade“ durch das Netzwerk entstehen. Durch die Mittelung der Vorhersagen aus diesen verschiedenen Pfaden kann das Modell zuverlässigere Schätzungen der Unsicherheit liefern. Diese Technik ist für Anwendungen nützlich, bei denen präzise und zuverlässige Vorhersagen unerlässlich sind, wie z. B. bei medizinischen Diagnosen oder Finanzprognosen.[5]

Begrenzungen

Neben den Vorteilen gibt es auch einige inhärente Einschränkungen, die berücksichtigt werden müssen.

Rechenaufwand

Das ToT-Framework umfasst komplexe Vorgänge wie die Aufrechterhaltung mehrerer Entscheidungswege, Rückverfolgung und die Erkundung alternativer Lösungen. Diese Prozesse sind rechenintensiv und erfordern oft erhebliche Ressourcen in Bezug auf Rechenleistung und Speicher. Der Bedarf an Ressourcen kann die Skalierbarkeit von ToT einschränken, insbesondere in Umgebungen, in denen die Rechenressourcen begrenzt sind, oder bei Echtzeitanwendungen, bei denen schnelle Reaktionszeiten entscheidend sind.

Komplexität der Umsetzung

Das Einrichten eines Gedankenbaumsystems beinhaltet die Integration verschiedener Komponenten wie des Prompter-Agenten, des Checker-Moduls, des Speichermoduls und des Gedankenbaum-Controllers.[1] Jede Komponente muss genau abgestimmt werden, damit sie harmonieren, was ein komplexer und zeitaufwändiger Prozess sein kann. Außerdem hängt die Effizienz des Systems stark von der Qualität seiner Implementierung ab. Eine schlechte Konfiguration einer Komponente kann die Effektivität des gesamten Systems beeinträchtigen, was zu einer geringeren Zuverlässigkeit oder zu falschen Problemlösungsansätzen führt.

Ineffizienz der Suche

Jüngste Untersuchungen haben Bedenken hinsichtlich der Effizienz von Prompting im ToT-Stil aufgeworfen. Die Studie zeigt, dass ToT zu einer redundanten Untersuchung von Argumentationspfaden mit geringem Wert führen kann, was zu unnötigem Rechenaufwand und einer langsameren Leistung führt. Im Gegensatz zu gezielteren Planungsstrategien fehlen ToT Mechanismen zur Priorisierung vielversprechender Zweige, was seine Wirksamkeit bei komplexen Argumentationsaufgaben beeinträchtigen kann.[6]


Um diese Probleme anzugehen, schlagen die Forscher einen alternativen Ansatz vor – Thought of Search –, der Planungheuristiken und Informationsgewinnung einbezieht, um den Denkprozess effizienter zu steuern. Diese Ergebnisse deuten darauf hin, dass ToT zwar ein leistungsfähiges konzeptionelles Framework bleibt, seine praktische Anwendung jedoch von der Integration mit effizienteren Suchstrategien profitieren könnte.[6]

AI Academy

KI-Experte werden

Erlangen Sie das nötige Wissen, um KI-Investitionen zu priorisieren, die das Unternehmenswachstum vorantreiben. Starten Sie noch heute mit unserer kostenlosen AI Academy und gestalten Sie die Zukunft der KI in Ihrem Unternehmen.

Kundenreferenzen

Das ToT-Framework hat seine Effizienz in verschiedenen Anwendungen unter Beweis gestellt und seine Robustheit und Anpassungsfähigkeit unter Beweis gestellt. Hier untersuchen wir vier überzeugende Fallstudien, in denen das ToT die Problemlösungsfähigkeiten erheblich verbessert hat:

Lösen von Sudoku-Rätseln

Die Anwendung von ToT beim Lösen von Sudoku-Rätseln veranschaulicht die Fähigkeit des Systems, komplexe logische Herausforderungen zu meistern. Indem das Modell durch verschiedene Zahlenplatzierungen geführt wird und bei Widersprüchen zurückverfolgt werden kann, vereinfacht ToT den Weg zu korrekten Lösungen. Diese Fähigkeit, Entscheidungen dynamisch neu zu bewerten, verbessert die Genauigkeit und Effizienz der Problemlösung erheblich und unterstreicht den Vorteil von ToT gegenüber statischeren Problemlösungsansätzen.[1]

Game of 24

Im strategischen Rechenspiel 24 hat ToT die Erfolgsquoten erheblich verbessert, indem es dem Modell ermöglichte, mehrere Rechenwege zu erkunden. Dieser adaptive Denkprozess ermöglichte es dem Modell, Rätsel kreativer und effektiver zu lösen, und zeigte die Fähigkeit von ToT, die kognitive Flexibilität bei der Lösung numerischer Probleme zu verbessern.[4]

Kreatives Schreiben

ToT wurde auch bei Aufgaben zum kreativen Schreiben eingesetzt, wo es LLMs dabei hilft, kohärentere und kontextuell angemessenere Erzählungen zu generieren. Durch die Strukturierung des Denkprozesses in einer verzweigten Baumstruktur kann das Modell verschiedene Handlungsentwicklungen oder stilistische Entscheidungen untersuchen und auf der Grundlage der vielversprechendsten Ergebnisse auswählen oder überarbeiten. Diese Methode hat zu Verbesserungen in der Qualität und Originalität der von LLMs generierten Texte geführt und bietet einen differenzierteren Ansatz für automatisiertes Storytelling.[4]

Lösen eines 5x5-Kreuzworträtsels

Eine weitere bemerkenswerte Anwendung von ToT ist das Lösen von 5x5-Mini-Kreuzworträtseln. Das Framework ermöglicht es dem Modell, mehrere Wortoptionen für jeden Kreuzworträtselhinweis zu berücksichtigen und sie nicht nur isoliert zu bewerten, sondern auch, wie sie mit bereits platzierten Wörtern interagieren. Dieser iterative, ganzheitliche Bewertungsansatz trägt dazu bei, eine höhere Genauigkeit bei der Vervollständigung von Puzzles zu gewährleisten, und zeigt die Fähigkeit von ToT, logisches und kontextbezogenes Denken bei sprachlich komplexen Aufgaben anzuwenden. Die Verwendung von ToT in diesem Zusammenhang unterstreicht seine Vielseitigkeit und Effektivität bei Aufgaben, die die Integration mehrerer Arten von Wissen und Argumentationsstrategien erfordern.[4]

Diese Fallstudien veranschaulichen die vielfältigen Möglichkeiten des „Baum der Gedanken“-Frameworks, von der Verbesserung des logischen und numerischen Denkens bis hin zur Förderung der Kreativität und des kontextbezogenen Verständnisses bei sprachbasierten Aufgaben. Jedes Beispiel unterstreicht das Potenzial von ToT, die Problemlösung fachübergreifend zu revolutionieren.

Jüngste Fortschritte

Jüngste Fortschritte in der ToT-Forschung haben sich auf die Erweiterung ihrer Fähigkeiten und die Bewältigung der mit ihrer Anwendung verbundenen Herausforderungen konzentriert. Zu den wichtigsten Entwicklungen gehören:

Quantifizierung von Unsicherheiten 

Die Einführung des Tree of Uncertain Thoughts (TouT) markiert einen bedeutenden Fortschritt in der ToT-Forschung. TouT verbessert ToT durch die Integration von Mechanismen zur Quantifizierung von Unsicherheiten, die Zuverlässigkeit jedes Entscheidungspfads bewerten. Diese Entwicklung ist entscheidend für Anwendungen, bei denen Entscheidungen unter Bedingungen der Unsicherheit getroffen werden müssen und bei denen die Kosten von Fehlern hoch sein können.[5]

Globale Entscheidungsfindung 

Weitere Forschungen haben sich auf die Verbesserung der globalen Entscheidungsfindung von LLMs beim Einsatz von ToT konzentriert. In aktuellen Studien wurden Feedbackschleifen in das Framework eingeführt, die es den Modellen ermöglichen, aus vergangenen Entscheidungen zu lernen und ihre Denkprozesse in Echtzeit anzupassen. Dieser iterative Feedback-Mechanismus trägt dazu bei, den Entscheidungsprozess zu verfeinern, indem er dynamischer wird und auf den sich entwickelnden Kontext des Problems reagiert. Solche Verbesserungen zielen darauf ab, die Argumentationsfähigkeiten von LLMs näher an menschliche kognitive Prozesse heranzuführen, bei denen das Lernen aus vergangenen Erfahrungen eine entscheidende Rolle bei der Gestaltung zukünftiger Entscheidungen spielt.[4]

Diese jüngsten Entwicklungen unterstreichen die anhaltenden Bemühungen, das Baum-der-Gedanken-Konzept zu verfeinern und zu erweitern, um seine Anwendbarkeit und Wirksamkeit in immer komplexeren Problemlösungsszenarien sicherzustellen. Diese Fortschritte verbessern nicht nur die Fähigkeiten von LLMs, sondern eröffnen auch neue Wege für die Forschung und Anwendung im Bereich der künstlichen Intelligenz.

Fußnoten

[1] Long, J. (Mai 2023). Large Language Model Guided Tree-of-Thought.

[2] Karthik Narasimhan, S. Y. (Juli 2023). Official Repository of Tree of Thoughts (ToT). https://github.com/princeton-nlp/tree-of-thought-llm

[3] Pengfei Liu, W. Y. (2021). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys.

[4] Shunyu Yao, D. Y. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. ArXiv, abs/2305.10601. 
https://arxiv.org/abs/2305.10601

[5] 5 Shentong Mo, M. X. (September 2023). Tree of Uncertain Thoughts Reasoning for Large Language Models. ArXiv, abs/2309.07694. https://arxiv.org/abs/2309.07694

[6] Katz, M., Kokel, H., Srinivas, K. und Sohrabi, S. (2024). Thought of search: Planning with language models through the lens of efficiency. In A. Globerson, L. Mackey, D. Belgrave, A. Fan, U. Paquet, J. Tomczak, & C. Zhang (Eds.), Advances in Neural Information Processing Systems (Vol. 37, S. 138491–138568).

Weiterführende Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

watsonx.ai erkunden
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein
– mit branchenführendem Fachwissen im Bereich KI und dem umfassenden Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
Beratung und Services zu künstlicher Intelligenz (KI)

Die KI-Services von IBM Consulting unterstützen Sie dabei, die Art und Weise, wie Unternehmen mit KI arbeiten, neu zu denken.

KI-Services entdecken
Machen Sie den nächsten Schritt

Mithilfe von KI liefert IBM Concert wichtige Erkenntnisse über Ihre Abläufe und gibt anwendungsspezifische Empfehlungen zur Verbesserung. Entdecken Sie, wie Concert Ihr Unternehmen voranbringen kann.

Entdecken Sie Concert Erkunden Sie Lösungen zur Geschäftsprozessautomatisierung