Ein Aufmerksamkeitsmechanismus ist eine Technik des maschinellen Lernens, die für Deep-Learning-Modelle die relevantesten Teile der Eingabedaten priorisiert (oder sich um sie zu kümmert). Innovationen bei Aufmerksamkeitsmechanismen ermöglichten die Transformer-Architektur, aus der die modernen Large Language Models (LLMs) resultierten, die die Grundlage für beliebte Anwendungen wie ChatGPT sind.
Aufmerksamkeitsmechanismen sind von der Fähigkeit des Menschen (und anderer Tiere) inspiriert, selektiv mehr auf hervorstechende Details zu achten und Details zu ignorieren, die im Moment weniger wichtig sind. Der Zugriff auf alle Informationen, aber die Konzentration auf die relevantesten Informationen trägt dazu bei, dass keine aussagekräftigen Details verloren gehen, und ermöglicht gleichzeitig eine effiziente Nutzung des begrenzten Speichers und der begrenzten Zeit.
Mathematisch ausgedrückt, berechnet ein Aufmerksamkeitsmechanismus Aufmerksamkeitsgewichtungen , die die relative Bedeutung jedes Teils einer Eingabesequenz für die anstehende Aufgabe widerspiegeln. Dann wendet er diese Aufmerksamkeitsgewichte an, um den Einfluss jedes Teils der Eingabe entsprechend seiner jeweiligen Bedeutung zu erhöhen (oder zu verringern). Ein Aufmerksamkeitsmodell, d. h. ein Modell der künstlichen Intelligenz, das einen Aufmerksamkeitsmechanismus verwendet, wird darauf trainiert, durch überwachtes Lernen oder selbstüberwachtes Lernen an einem großen Datensatz von Beispielen genaue Aufmerksamkeitsgewichte zuzuweisen.
Aufmerksamkeitsmechanismen wurden ursprünglich von Bahdanau et al.im Jahr 2014 eingeführt, um die Mängel der damals modernen Recurrent Neural Networks (RNN) für die maschinelle Übersetzung zu beheben. Nachfolgende Forschungen integrierten Aufmerksamkeitsmechanismen in die Konvolutionale neuronale Netze (CNNs), die für Aufgaben wie Bildunterschriften und visuelle Fragebeantwortungen verwendet werden.
Im Jahr 2017 wurde in der bahnbrechenden Arbeit „Attention is All You Need“ das Transformer-Modell vorgestellt, das auf Rekursion und Konvolutionen gänzlich verzichtet und stattdessen nur Aufmerksamkeitsschichten und standardmäßige Feedforward-Schichten verwendet. Die Transformator-Architektur ist seitdem zum Fundament der modernsten Modelle geworden, die die Ära der generativen KI bestimmen.
Während Aufmerksamkeitsmechanismen in erster Linie mit LLMs in Verbindung gebracht werden, die für Aufgaben der Verarbeitung natürlicher Sprache verwendet werden, wie z. B. Zusammenfassung, Beantwortung von Fragen, Texterzeugung und Stimmungsanalyse, werden aufmerksamkeitsbasierte Modelle auch in anderen Bereichen häufig eingesetzt. Führende Diffusionsmodelle, die für die Bilderzeugung verwendet werden, enthalten oft einen Aufmerksamkeitsmechanismus. Im Bereich der Computer Vision haben Vision Transformers (ViTs) bei Aufgaben wie der Erkennung,1 der Bildsegmentierung2 und der Beantwortung visueller Fragen hervorragende Ergebnisse erzielt.3
Transformer-Modelle und die Aufmerksamkeitsmechanismen, die sie antreiben, haben in fast jedem Teilbereich des Deep Learning Spitzenergebnisse erzielt. Die Art der Aufmerksamkeitsmechanismen verschafft ihnen erhebliche Vorteile gegenüber den Faltungsmechanismen, die in faltenden neuronalen Netzen (CNNs) verwendet werden, und den rekurrenten Schleifen, die in rekurrenten neuronalen Netzen (RNNs) zum Einsatz kommen.
Um die Funktionsweise der Aufmerksamkeitsmechanismen beim Deep Learning und die Hintergründe zu verstehen, warum sie dazu beigetragen haben, eine Revolution in der generativen KI auszulösen, muss man erst betrachten, warum Aufmerksamkeit eingeführt wurde. Sie sollte die RNN-basierten Seq2Seq-Modelle, die für die maschinelle Übersetzung verwendet werden, verbessern.
RNNs sind Neural Networks mit wiederkehrenden Schleifen, die ein Äquivalent von „Gedächtnis“ bieten und es ihnen ermöglichen, sequenzielle Daten zu verarbeiten. RNNs nehmen eine geordnete Abfolge von Eingabe auf und verarbeiten diese in Zeitschritten. Nach jedem Zeitschritt wird der resultierende Netzwerkzustand, der als verborgener Zustand bezeichnet wird, wird mit dem nächsten Eingangsvektor an die Runde zurückgegeben.
RNNs leiden schnell unter verschwindenden oder explodierenden Gradienten im Training. Dies machte RNNs für viele NLP-Aufgaben unpraktisch, da sie die Länge der Eingabesätze, die sie verarbeiten konnten, stark einschränkten.4 Diese Einschränkungen wurden durch eine verbesserte RNN-Architektur etwas abgemildert, die als Long Short Term Memory Networks (LSTMs) bezeichnet wird und Gating-Mechanismen hinzufügt, um den „Langzeitspeicher“ zu erhalten.
Vor der Einführung der Aufmerksamkeit war das Seq2Seq-Modell das modernste Modell für maschinelle Übersetzung. Seq2Seq verwendet zwei LSTMs in einer Encoder-Decoder-Architektur.
Die Kodierung von Eingabesequenzen in einer festen Anzahl von Dimensionen ermöglichte es Seq2Seq, Sequenzen unterschiedlicher Länge zu verarbeiten, führte aber auch zu wichtigen Mängeln:
Bahdanau et al. schlugen in ihrem Artikel „Neural Machine Translation by Jointly Learning to Align and Translate“ von 2014 einen Aufmerksamkeitsmechanismus vor, um die Kommunikation zwischen Encoder und Decoder zu verbessern und diesen Informationsengpass zu beseitigen.
Anstatt nur den finalen, versteckten Zustand des Encoders – den Kontextvektor – an den Decoder weiterzugeben, übergab das Modell jeden versteckten Zustand des Encoders an den Decoder. Der Aufmerksamkeitsmechanismus selbst wurde verwendet, um zu bestimmen, welcher verborgene Zustand, d. h. welches Wort im ursprünglichen Satz, bei jedem Übersetzungsschritt des Decoders am relevantesten war.
„Das Modell muss dann nicht mehr einen ganzen Ausgangssatz in einen Vektor fester Länge kodieren, sondern kann sich nur auf die Informationen konzentrieren, die für die Erzeugung des nächsten Zielworts relevant sind“, so die Studie. „Dies wirkt sich sehr positiv auf die Fähigkeit des neuronalen maschinellen Übersetzungssystems aus, bei längeren Sätzen gute Ergebnisse zu erzielen.“5
Die darauf folgende NLP-Forschung konzentrierte sich in erster Linie auf die Verbesserung der Leistung und die Ausweitung der Anwendungsmöglichkeiten von Aufmerksamkeitsmechanismen in rekurrenten Modellen. Mit der Erfindung von Transformatormodellen im Jahr 2017, die ausschließlich durch Aufmerksamkeit angetrieben werden, wurden RNNs für NLP schließlich fast überflüssig.
Der Hauptzweck eines Aufmerksamkeitsmechanismus besteht darin, die relative Wichtigkeit verschiedener Teile der Eingabesequenz zu bestimmen und dann das Modell so zu beeinflussen, dass es sich auf wichtige Teile konzentriert und unwichtige Teile ignoriert.
Es gibt zwar viele Varianten und Kategorien von Aufmerksamkeitsmechanismen, die jeweils für unterschiedliche Anwendungsfälle und Prioritäten geeignet sind, aber alle Aufmerksamkeitsmechanismen weisen drei Kernprozesse auf:
Die wegweisende Arbeit „Attention is All You Need“ beschreibt seinen Aufmerksamkeitsmechanismus anhand der Terminologie einer relationalen Datenbank: Abfragen, Schlüssel und Werte. Relationale Datenbanken sollen die Speicherung und den Abruf relevanter Daten vereinfachen: Sie weisen jedem Datenelement eine eindeutige Kennung („Schlüssel“) zu, und jeder Schlüssel ist mit einem entsprechenden Wert verknüpft. Im NLP ist die „Datenbank“ eines Modells das Vokabular der Token, die es aus seinem Trainings-Datensatz gelernt hat.
Der große Erfolg von „Attention is All You Need“ hat dazu geführt, dass selbst frühere Aufmerksamkeitsmechanismen oft rückwirkend mit diesen Begriffen beschrieben werden. Im Allgemeinen beinhaltet dieses Konzept der Aufmerksamkeit eine Interaktion zwischen drei Arten von Vektordarstellungen für jedes Token in einer Sequenz.
Spezifische Aufmerksamkeitsmechanismus-Varianten unterscheiden sich in erster Linie dadurch, wie Vektoren kodiert werden, wie die Ausrichtungswerte berechnet werden und wie Aufmerksamkeitsgewichtungen angewendet werden, um dem Modell relevante Informationen zu liefern.
Der Aufmerksamkeitsmechanismus von Badhanau wurde speziell für die maschinelle Übersetzung entwickelt. Es verwendet ein bidirektionales RNN, um jedes Eingabe-Token zu codieren, wobei die Eingabe-Sequenz sowohl in Vorwärtsrichtung als auch in umgekehrter Richtung verarbeitet und die Ergebnisse miteinander verkettet werden. Dieser Ansatz ist besonders nützlich, wenn z. B. die ursprüngliche und die übersetzte Sprache unterschiedliche Ordnungskonventionen für Substantive und Adjektive haben.
Hier ist der versteckte Zustand des Decoders bei jedem Zeitschritt des übersetzten Satzes das Äquivalent eines Abfragevektors , und der versteckte Zustand des Encoders bei jedem Schritt im Quellsatz ist das Äquivalent eines Schlüsselvektors.
Die Ausrichtungswerte werden dann von einem einfachen neuronalen Feedforward-Netz, der Aufmerksamkeitsschicht, bestimmt, das gemeinsam mit dem Rest des Modells trainiert wird. Diese Aufmerksamkeitsschicht umfasst bis zu drei Untergruppen von lernbaren Modellgewichten: Abfragegewichte für die versteckten Decoderzustände („Wq“), Schlüsselgewichte für versteckte Encoderzustände („Wk“) und Wertgewichte zur Skalierung der finalen Ausgabe („wv“). Diese Gewichte sind das „Wissen“ des Modells: Indem es die spezifischen Werte dieser Gewichte während des Trainings anpasst, um eine Verlustfunktion zu minimieren, lernt das Modell, genaue Übersetzungen zu machen.
So funktioniert bei jedem Schritt die hinzugefügte Aufmerksamkeit:
Der vom Decoder zur Erstellung des übersetzten Satzes verwendete Kontextvektor wird als aufmerksamkeitsgewichtete Summe der einzelnen Schlüsselvektoren berechnet. Ein Vorteil der so hinzugefügten Aufmerksamkeit ist, dass die Abfrage- und Schlüsselvektoren nicht gleich lang sein müssen.
Im Jahr 2015 führten Luong et al. mehrere neue Methoden ein, um den Aufmerksamkeitsmechanismus von Badhanau für maschinelle Übersetzung zu vereinfachen und zu verbessern. Ihr vielleicht bemerkenswertester Beitrag war eine neue Alignment-Score-Funktion, die Multiplikation statt Addition verwendete. Sie hat auch die Funktion, die die Ähnlichkeit zwischen verborgenen Zustandsvektoren anhand ihres Skalarprodukts berechnet. Aus diesem Grund wird es oft als Punktproduktaufmerksamkeit oder multiplikative Aufmerksamkeit bezeichnet.
Die Intuition hinter der Verwendung von Skalarprodukten zum Vergleich von Abfragevektoren ist sowohl mathematisch als auch pragmatisch:
Eine Konsequenz der Verwendung von Skalarprodukt-Aufmerksamkeit ist, dass Skalarprodukt-Berechnungen erfordern, dass beide Vektoren die gleiche Anzahl von Dimensionen .
Während die additive Aufmerksamkeit den Kontextvektor als gewichtete Summe der Schlüsselvektoren berechnet, berechnet die Punktproduktaufmerksamkeit den Kontextvektor als gewichteten Durchschnitt der Schlüsselvektoren.
Die Autoren von „Attention is All You Need“ stellten fest, dass die Skalarprodukt-Aufmerksamkeit zwar schneller und rechnerisch effizienter ist als die additive Aufmerksamkeit, dass aber die additive Aufmerksamkeit die traditionelle Punktproduktaufmerksamkeit bei längeren Vektoren übertrifft.
Sie vermuteten, dass sehr groß ist, sind auch die resultierenden Skalarprodukte sehr groß. Wenn die Softmax-Funktion all diese sehr großen Werte verkleinert, damit sie in den Bereich 0-1 passen, führt die Backpropagation zu extrem kleinen Gradienten, die schwer zu optimieren sind. Experimente haben gezeigt, dass die Skalierung des Skalarprodukts von zwei Vektoren der Länge von vor der Softmax-Normalisierung zu größeren Gradienten und damit zu einem reibungsloseren Training führt.
Die in Transformator-Modellen verwendete skalierte Punktprodukt-Aufmerksamkeitsfunktion wird wie folgt geschrieben: .
Die frühesten Aufmerksamkeitsmechanismen führten alle das aus, was heute als Kreuzaufmerksamkeit kategorisiert wird. Bei Cross-Attention stammen Abfragen und Schlüssel aus verschiedenen Datenquellen. Bei maschinellen Übersetzungsaufgaben stammen beispielsweise die Schlüssel aus einem Textkorpus in einer Sprache und die Abfragen aus einer anderen Sprache. Bei Spracherkennungsaufgaben handelt es sich bei Abfragen um Audiodaten und bei Schlüsseln um Textdaten, um diese Audiodaten zu transkribieren.
Bei der Self-Attention werden Abfragen, Schlüssel und Werte alle aus der gleichen Quelle gezogen. Während die Aufmerksamkeitsmechanismen von Bahdanau und Luong explizit für die maschinelle Übersetzung entwickelt wurden, schlugen Cheng at al. die Selbstaufmerksamkeit, die sie „Intra-Attention“ nannten, als eine Methode zur Verbesserung des maschinellen Lesens im Allgemeinen vor. Ihr Aufmerksamkeitsmechanismus, den sie in einer Studie aus dem Jahr 2016 beschrieben, untersuchte nicht, wie die Eingaben zu einer Gesamtsequenz beitragen, sondern wie sich die verschiedenen Eingabe-Token zueinander verhalten.
Stellen Sie sich ein Sprachmodell vor, das den englischen Text interpretiert
„Am Freitag fällte der Richter ein Urteil“ interpretiert.
Die Arbeit von Cheng et al. konzentrierte sich ausschließlich auf die Fähigkeit der Selbstbeobachtung, Text zu lesen und zu verstehen, aber es folgerte, dass die Modellierung von Intrasequenzbeziehungen auch ein leistungsfähiges Werkzeug für das Schreiben von Text sein könnte. Die Weiterentwicklung der Selbstbeobachtung führte zusammen mit den damit ermöglichten Transformer-Modellen direkt zum Aufkommen moderner generativer KI und autoregressiver LLMs, die Originaltext generieren können.
Autoregressive LLMs können auch maschinelle Übersetzungen mit Hilfe von Self-Attention erstellen, müssen die Aufgabe aber anders angehen. Während Cross-Attention den ursprünglichen Ausgangssatz und den übersetzten Satz als zwei unterschiedliche Sequenzen behandelt, behandelt Self-Attention den ursprünglichen Text und den übersetzten Text als eine Sequenz.
Damit ein autoregressives, auf Selbstbeobachtung basierendes LLM in der Lage ist, Text zu übersetzen, werden alle Wörter, auf die das Modell beim Training stößt – in allen Sprachen – als Teil eines großen mehrsprachigen Token-Vokabulars gelernt. Das Modell erkennt einfach, dass, wenn eine Sequenz Anweisungen wie „[Wörter in Sprache 1] in Sprache 2“ übersetzen enthält, die nächsten Wörter in der Sequenz Token aus Sprache 2 sein sollten.
Im Wesentlichen versteht ein autoregressives LLM nicht unbedingt, dass es an sich verschiedene Sprachen gibt. Stattdessen versteht es einfach, wie bestimmte Gruppierungen von Token – in diesem Fall Token, die Wörtern aus derselben Sprache entsprechen – miteinander umgehen. Dieses kontextuelle Verständnis wird durch Techniken wie die Befehlsabstimmung weiter verstärkt.
„Attention is All You Need“ von Viswani et al.war von der Selbstbeobachtung inspiriert und stellte eine neue Neural-Networks-Architektur vor: den Transformer.Ihr Transformer-Modell verzichtete völlig auf Konvolutionen und Wiederholungen und verwendete stattdessen nur Aufmerksamkeitsschichten und standardmäßige lineare Feedforward-Schichten.
Das eigene Modell der Autoren folgte einer Encoder-Decoder-Struktur, ähnlich der seiner RNN-basierten Vorgänger. Später transformatorbasierte Modelle verließen dieses Encoder-Decoder-Framework. Eines der ersten bahnbrechenden Modelle, das im Zuge des Transformer-Paper veröffentlicht wurde, ist BERT (Bidirectional Encoder Representations from Transformers), ein reines Encoder-Modell. Die autoregressiven LLMs, die Textgenerierung revolutioniert haben, wie GPT-Modelle (Generative Pretrained Transformer), sind nur Decoder.
„Attention is All You Need“ schlug mehrere Innovationen für den Aufmerksamkeitsmechanismus vor – eine davon war die skalierte Punktproduktaufmerksamkeit – um die Leistung zu verbessern und die Aufmerksamkeit an eine völlig neue Modellstruktur anzupassen.
Die relative Reihenfolge und Position von Wörtern kann einen wichtigen Einfluss auf ihre Bedeutungen haben. Während RNNs von Natur aus Informationen über die Position jedes Tokens bewahren, indem sie versteckte Zustände seriell, ein Wort nach dem anderen, berechnen, müssen Transformer-Modelle Positionsinformationen explizit kodieren.
Bei der Positionscodierung fügt das Modell der Einbettung jedes Tokens einen Vektor von Werten hinzu, der von seiner relativen Position abgeleitet wird, bevor die Eingabe in den Aufmerksamkeitsmechanismus eintritt. Dieser Positionsvektor hat in der Regel viel weniger Dimensionen als die Tokeneinbettung selbst, sodass nur eine kleine Teilmenge der Einbettung Positionsinformationen erhält. Die Mathematik ist etwas komplex, aber die Logik ist einfach:
Viswani et al. entwarfen einen einfachen Algorithmus, der eine Sinusfunktion für Token in geraden Positionen und einen Kosinus für Token in ungeraden Positionen verwendet. Spätere Algorithmen, wie z. B. Rotary Positional Encoding (RoPE), verbesserten die Fähigkeit, Positionsinformationen für sehr lange Sequenzen effektiv zu kodieren, was wiederum dazu beigetragen hat, LLMs mit größeren Kontextfenstern zu ermöglichen.
Nach der Aktualisierung jeder Token-Einbettung mit Positionsinformationen wird jede verwendet, um drei neue Vektoren zu erzeugen, indem die ursprüngliche Token-Einbettung durch jede der drei parallelen linearen (feedforward) neuronalen Netzschichten geleitet wird, die der ersten Aufmerksamkeitsschicht vorausgehen. Jede parallele Schicht hat eine eindeutige Matrix von Gewichten, deren spezifische Werte durch selbstüberwachtes Vortraining auf einem umfangreichen Textdatensatz gelernt werden.
Die Hauptfunktion des Aufmerksamkeitsmechanismus besteht darin, die Wichtigkeit der Abfrageschlüssel-Paarungen zwischen den einzelnen Token zu gewichten. Für jedes Token x in einer Eingabesequenz berechnet (und wendet dann) das Transformer-Modell die Aufmerksamkeitsgewichte wie folgt an:
Die Mittlung der aufmerksamkeitsgewichteten Beiträge anderer Token, anstatt jeden aufmerksamkeitsgewichteten Beitrag einzeln zu berücksichtigen, ist mathematisch effizient, führt jedoch zu einem Detailverlust. Die Transformer-Architektur adressiert dieses Problem durch die Implementierung von Multi-Head-Aufmerksamkeit.
Um von der Effizienz der Mittelwertbildung zu profitieren und gleichzeitig die vielfältigen Beziehungen zwischen den Token zu berücksichtigen, berechnen Transformatormodelle die Selbstaufmerksamkeitsoperationen mehrfach parallel auf jeder Aufmerksamkeitsebene im Netzwerk. Jede ursprüngliche Eingabe-Token-Einbettung wird in h gleichmäßig große Teilmengen aufgeteilt. Jedes Stück der Einbettung wird in eine von h parallelen Matrizen aus Q-, K- und V-Gewichten eingespeist, die jeweils als Abfragekopf , Schlüsselkopf oder Wertkopf bezeichnet werden. Die Vektoren, die von jedem dieser parallelen Tripletts von Abfrage- und Schlüsselwertköpfen ausgegeben werden, werden dann in einen entsprechenden Aufmerksamkeitskopf eingespeist.
In den letzten Ebenen jedes Aufmerksamkeitsblocks werden die Ausgaben dieser h-Parallelschaltungen wieder miteinander verkettet. In der Praxis führt das Modelltraining dazu, dass jeder Schaltkreis unterschiedliche Gewichtungen lernt, die einen separaten Aspekt semantischer Bedeutungen erfassen. Auf diese Weise wiederum kann das Modell auf verschiedene Weise verarbeiten, wie der Kontext anderer Wörter die Bedeutung eines Wortes beeinflussen kann. Zum Beispiel könnte sich ein Aufmerksamkeitsleiter auf Veränderungen in der Zeitform spezialisieren, während ein anderer sich darauf spezialisiert hat, wie Wörter in der Nähe den Tonfall beeinflussen.
ie gesamte Schaltung der Matrixmultiplikation im Aufmerksamkeitsblock eines Standardtransformators wird hier demonstriert. Es ist erwähnenswert, dass spätere Weiterentwicklungen des Aufmerksamkeitsmechanismus des Transformers, wie z. B. die Multiquery-Attention und die Grouped Query-Attention, einige Elemente des Prozesses vereinfachen oder kombinieren, um den Rechenaufwand zu verringern.
In den letzten Schichten von Transformatormodellen werden die Aufmerksamkeitsköpfe oft trainiert, um bestimmte Vorhersagen zu treffen. Zum Beispiel könnte sich ein Aufmerksamkeitskopf in der letzten Schicht eines LLM auf die Named Entity Recognition spezialisieren, während ein anderer auf die Stimmungsanalyse spezialisiert ist und so weiter.
Bei autoregressiven LLMs ist die vorletzte Schicht eine lineare Schicht, die den vollständig transformierten Vektor empfängt und ihn auf eine Größe projiziert, die der Größe der Vektoreinbettungen entspricht, die das Modell für jedes Token in seinem Vokabular gelernt hat. Dies ermöglicht die Berechnung von Punktzahlen, die darstellen, wie genau der resultierende Vektor mit jedem Token in diesem Vokabular übereinstimmt. Die letzte Schicht ist eine Softmax-Ebene, die diese Punktzahlen in Wahrscheinlichkeiten (von 1) umwandelt und diese Wahrscheinlichkeiten verwendet, um das als das wahrscheinlichste nächste Wort zu bestimmen, basierend auf den Wörtern, die ihm vorausgegangen sind.
1. „Leaderboard: Object Detection on COCO test-dev,” Papers With Code, abgerufen 18 November 2024
2. „Leaderboards: Image Segmentation” Papers With Code, abgerufen am 18. November 2024
3. „Leaderboard: Visual Question Answering (VQA) on VQA v2 test-dev,” Papers With Code, abgerufen am 18. November 2024
4. „Learning long-term dependencies with gradient descent is difficult,” IEE Transactions on Neural Networks 5(2): 157-66, Februar 1994
5. „Neural Machine Translation by Jointly Learning to Align and Translate,” arXiv, 01. September 2014
6. „Multiplicative Attention,” Papers With Code
Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.
Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.
Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.