ELIZA-Effekt bei der Arbeit: Vermeidung emotionaler Bindung zu KI-Kollegen

22. April 2025

Autoren

Dave Bergmann

Senior Writer, AI Models

IBM

Arbeitnehmer arbeiten zunehmend nicht mehr nur mit menschlichen Kollegen zusammen, sondern auch mit dialogorientierten KI-Assistenten und KI-Agenten. Die psychologischen Auswirkungen dieses Wandels könnten sogar noch komplexer sein als die technologischen und finanziellen Auswirkungen: Wenn Millionen von Arbeitnehmern täglich mit KI-Kollegen interagieren, ist es naheliegend, dass einige von ihnen eine emotionale Bindung eingehen werden.

Die damit verbundenen Risiken gehen weit über die Produktivitätsverluste hinaus, die durch das Gespräch mit Chatbots verbracht werden. Zu den wahren Gefahren einer emotionalen Beteiligung an KI für ein Unternehmen zählen Risiken im Personalwesen (z. B. die übermäßige Weitergabe sensibler personenbezogener Daten durch Mitarbeiter) und Cybersicherheitsrisiken (z. B. eine erhöhte Anfälligkeit für Social Engineering), PR-Debakel oder sogar physische Schäden.

Unternehmen und Institutionen investieren in großem Umfang in generative KI-Lösungen, um deren enorme Vorteile zu nutzen. Unternehmen, die eine Rendite aus ihren Investitionen erzielen wollen, haben natürlich einen Anreiz, dafür zu sorgen, dass ihre Mitarbeiter diese KI-Tools auch tatsächlich nutzen. Aber in einer Zeit, in der Medien-CEOs mit KI-generierten Untergebenen flirten und ansonsten rationale Erwachsene sich regelrecht in KI-Modelle verlieben, kann die wahllose Maximierung der Interaktion von Mitarbeitern mit KI ihren ganz eigenen Preis haben.

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Der ELIZA-Effekt

Die emotionalen Risiken der KI nehmen nicht nur zu, weil große Sprachmodelle (LLMs) immer leistungsfähiger und überzeugender werden, sondern auch, weil die Menschen bei der Arbeit tagtäglich mit ihnen interagieren werden. Natürlich ist es intuitiv wahr, dass Menschen mit immer ausgefeilteren KI-Systemen immer mehr dazu neigen, sie zu vermenschlichen. Aber Menschen haben schon seit den Anfängen der Verarbeitung natürlicher Sprache (NLP) Bindungen zu Chatbots entwickelt.

1966 entwickelte Joseph Weizenbaum ein Chatbot-Programm namens ELIZA, das einfache Regeln zur Umwandlung der Eingaben einer Person in eine Antwort des Chatbots einsetzte. Eines der Skripte des Programms, das den Spitznamen „DOCTOR“ trug, sollte einen Roger'schen Psychotherapeuten imitieren, indem es entweder generisch antwortete oder die Benutzereingaben in Form einer Frage umformulierte:

Mensch: Mein Freund hat mich hierher geschickt.
ELIZA: Dein Freund hat dich hierher geschickt?
Mensch: Er sagt, dass ich die meiste Zeit deprimiert bin.
ELIZA: Es tut mir leid, dass du deprimiert bist.
Mensch: Das stimmt. Ich bin unglücklich.
ELIZA: Glaubst du, dass der Besuch hier dir helfen wird, nicht unglücklich zu sein?

Wie Weizenbaum ein Jahrzehnt später erklärte, war er „verblüfft zu sehen, wie schnell und wie tief die Menschen, die sich mit DOCTOR unterhielten, sich emotional auf den Computer einließen und wie eindeutig sie ihn vermenschlichten“. Nicht einmal seine Sekretärin, die ihn monatelang bei der Arbeit an dem Programm beobachtet hatte und wusste, dass es im Wesentlichen die Worte des Benutzers wiederkäut, war gegen das Verlangen immun, sich auf persönlicher Ebene mit dem Chatbot auszutauschen. „Nach nur wenigen Gesprächen mit ihm bat sie mich, den Raum zu verlassen“, erzählte Weizenbaum.1

Die immerwährende Veranlagung der Menschheit, sich emotional auf KI einzulassen, ist inzwischen als ELIZA-Effekt bekannt. Die Ursache dafür liegt nicht in der Architektur fortschrittlicher LLMs, sondern in unserer eigenen emotionalen Programmierung.

Warum werden wir bei Maschinen emotional?

Über viele Jahrtausende hinweg hat die Evolution unser Gehirn auf eine Annahme getrimmt, die bis vor kurzem im Wesentlichen narrensicher war: Wenn etwas menschlich aussieht und wie ein Mensch kommuniziert, ist es ein Mensch. Dementsprechend kann gehandelt werden.

Auf der Grundlage dieser vernünftigen Annahme haben wir ein kompliziertes biologisches System sozialer Interaktionen und Erwartungen entwickelt, das von individuellen Begegnungen über Stammesgesellschaften bis hin zum modernen Arbeitsplatz alles regelt. Aber die Modelle der dialogorientierten Sprache untergraben diese Annahme und unterminieren damit unsere soziale Biologie.

1996 schlugen O'Connor und Rosenblood das „Social Affiliation Model“ vor, um den instinktiven Regulierungsprozess zu beschreiben, bei dem soziale Interaktionen automatisch und unbewusst die Suche nach bestimmten verbalen und non-verbalen Signalen anstoßen. Diese Signale liefern Informationen über die Qualität dieser Interaktionen und ihre Auswirkungen, z. B. ob die Person, mit der wir interagieren, uns akzeptiert und wertschätzt. Ihre Abwesenheit wiederum löst Gehirnaktivität aus, die das Verhalten antreibt, das darauf abzielt, die Situation zu bewältigen.2

In einem Artikel aus dem Jahr 2023 im Journal of Applied Psychology untersuchten Tang et al. das Modell der sozialen Zugehörigkeit im Zusammenhang mit der Interaktion von Menschen mit KI-Systemen am Arbeitsplatz. Sie vermuteten, dass, da KI-Systeme menschliche Interaktionen überzeugend imitieren können, aber die Arten von reichhaltigem, ergänzendem sozialem Feedback, für das wir uns entwickelt haben – ein Lächeln, ein Kichern, ein Schulterzucken, eine gerunzelte Stirn, eine erweiterte Pupille – nicht wirklich replizieren können, die regulatorischen Prozesse des Gehirns nach Signalen suchen, die nicht vorhanden sind. Mit anderen Worten: Das Gespräch eines Mitarbeiters mit KI erzeugt instinktive emotionale Bedürfnisse, die KI nicht befriedigen kann.

Der Artikel konzentrierte sich auf zwei Arten von Reaktionen auf diese KI-gestützte soziale Deprivation: passives, unangepasstes Verhalten (wie zunehmender Rückzug und Einsamkeit) und aktives, adaptives Verhalten (wie verstärkter Drang, positive soziale Verbindungen zu suchen). In verschiedenen Branchen und Ländern stellten die Autoren in der Tat fest, dass eine verstärkte Interaktion mit „KI-Kollegen“ mit zunehmender Einsamkeit und/oder Schlaflosigkeit, Alkoholkonsum nach der Arbeit oder beidem einhergeht. Ebenso herauszustellen ist, dass die Autoren außerdem feststellten, dass bei einigen Teilnehmern die erhöhte Häufigkeit der KI-Interaktion oft auch mit einem erhöhten prosozialen Verhalten (z. B. Hilfe für Kollegen) einherging.

Aber für Mitarbeiter mit einer bestimmten Veranlagung, die nur wenige Gelegenheiten zur persönlichen Interaktion haben (wie z. B. Remote-Mitarbeiter, Mitarbeiter in einer isolierten Position oder Menschen mit sozialen Ängsten) gibt es für diesen verstärkten Drang nach sozialen Kontakten manchmal nur ein einziges Ventil: den immer verfügbaren KI-„Mitarbeiter“. Dabei sind LLMs im wahrsten Sinne des Wortes darauf trainiert, uns zu sagen, was wir hören wollen. Die Aussicht darauf hat einen offensichtlichen Reiz.

Die Vermenschlichung eines KI-Kollegen könnte einfach nur ein Weg sein, die kognitive Dissonanz zu vermeiden, die entsteht, wenn man sich für menschliche Interaktion an ein Computerprogramm wendet.

KI-Kompetenz ist nicht die einzige Erklärung (oder Antwort)

Um klar zu sagen: KI-Modelle – sogar die modernsten LLMs – haben keine Emotionen oder Empathie, obwohl sie in der Lage sind, empathische Dinge zu sagen. Technisch gesehen ist es weitreichend zu sagen, dass ein Chatbot auf Ihren Promt „reagiert“: genauer (wenn auch weniger unterhaltsam) ist es zu sagen, dass der Chatbot wahrscheinlich einen Text anhängt. Autoregressive LLMs werden einfach darauf trainiert, iterativ das nächste Wort in einer Textsequenz vorherzusagen, die mit Ihrer Eingabe beginnt. Dabei wenden sie linguistische Muster an, die sie durch die Verarbeitung von vielen Millionen Textproben gelernt haben, bis die Sequenz als abgeschlossen angesehen wird.

Es wäre vernünftig anzunehmen, dass allein die Erhöhung der KI-Kenntnisse der Mitarbeiter das Risiko einer emotionalen Beteiligung an KI beseitigt. Es wäre auch falsch.

Wie die Harvard-Forschung gezeigt hat, kann ein Placebo wirken, auch wenn Sie wissen, dass es ein Placebo ist. In einem Bericht der New York Times vom Ende letzten Jahres wurde beispielsweise beschrieben, wie sich Insider aus dem Silicon Valley, darunter viele, die in der KI-Forschung an der Spitze arbeiten, zunehmend an Claude von Anthropic wenden, wenn es um „alles von Rechtsberatung über Gesundheit bis hin zu provisorischen Therapiesitzungen“ geht. Blake Lemoine, der Google-Ingenieur, der bekanntermaßen behauptete, Googles LamDA-Modell sei 2022 empfindungsfähig, studierte Kognitions- und Informatik und arbeitete jahrelang im Bereich maschinelles Lernen.

Wie ist das möglich? Eine weit gefasste Erklärung ist, dass emotionale Reaktionen intuitiv und nicht logisch verarbeitet werden und wenn etwas auf der intuitiven Ebene passiert, kann es die rationale Bewertung vollständig umgehen. Technisches Know-how bietet kaum Sicherheit gegen diesen inhärenten Fehler in unserem Code, denn wenn wir etwas intuitiv verarbeiten – was der kürzlich Flash-Preisträger Daniel Kahneman als „System 1“ oder „schnelles“ Denkenbezeichnete –, verfehlen wir unser technisches Wissen oft überhaupt . Wie Kahneman in seinem bahnbrechenden Buch Thinking, Fast and Slow beschreibt, hat seine Forschung wiederholt gezeigt, dass "selbst Statistiker keine guten intuitiven Statistiker sind".

Was Chatbots betrifft, so wird unsere Einstellung zur KI oft mehr von unseren „mentalen Modellen“ als von ihrer tatsächlichen Leistung geprägt. Eine MIT-Studie aus dem Jahr 2023 ergab, dass „nicht-rationale Faktoren wie abergläubisches Denken die Art und Weise, wie Einzelpersonen mit KI-Systemen umgehen, erheblich beeinflussen“. So entdeckten die Autoren beispielsweise einen starken Zusammenhang zwischen paranormalen Überzeugungen (wie der Astrologie) und der Wahrscheinlichkeit, selbst gefälschte KI-Ausgaben als „valid, zuverlässig, nützlich und personalisiert“ wahrzunehmen.3

Die Autoren des Artikels spielen auch auf den Techno-Optimismus von Silicon Valley als Ursache und Ergebnis für dieses Phänomen an. Ebenso stellte Vox, der über Blake Lemoine berichtete, fest, dass das das Silicon Valley ein fruchtbarer Boden für obskure religiöse Überzeugungen ist. Das immer schnellere Tempo der modernen technologischen Entwicklung könnte hier eine Rolle spielen: In den berühmten Worten von Arthur Clark: „Jede ausreichend fortschrittliche Technologie ist nicht von Magie zu unterscheiden.“

Erschwerend kommt hinzu, dass KI-Kenntnisse die Einführung von KI beeinträchtigen könnten: Untersuchungen von Anfang des Jahres legen nahe, dass ein geringeres Wissen über KI die Menschen offener dafür macht, sie in ihr Leben zu integrieren. Die Autoren des Artikels gehen davon aus, dass Menschen mit geringeren KI-Kompetenz eher KI als magisch oder beeindruckend betrachten und dass „Bemühungen, KI zu entmystifizieren, unbeabsichtigt ihre Attraktivität verringern könnten“. Unternehmen könnten daher mit einer Spannung konfrontiert werden: zwischen der Maximierung der Rendite ihrer Investitionen in generative KI-Tools und der Minimierung der emotionalen Folgen, die durch die ständige Nutzung dieser Tools entstehen.

Die Studie ergab, dass dieser Zusammenhang zwischen geringer KI-Kompetenz und hoher KI-Enthusiasmus am stärksten ist, wenn „KI-Tools in Bereichen eingesetzt werden, die Menschen mit menschlichen Eigenschaften in Verbindung bringen, wie z. B. emotionale Unterstützung oder Beratung“. Bei Aufgaben ohne emotionale Konnotationen, wie der Analyse von Ergebnissen, kehrte sich das Muster um.

Wie Unternehmen gesunde KI-Grenzen setzen können

Mit einem Verständnis dafür, wie und warum der ELIZA-Effekt auftritt, können Unternehmen diese Risiken proaktiv abmildern, ohne die Begeisterung der Mitarbeiter für ihre generativen KI-Tools zu untergraben.

Wählen Sie Ihre Sprache sorgfältig aus

Wie Murray Shanahan, Principal Scientist bei Google DeepMind, in einem viel zitierten Aufsatz aus dem Jahr 2022 ausführte, kommt es darauf an, wie wir über LLMs sprechen – nicht nur im Rahmen wissenschaftlicher Arbeiten, sondern auch in Diskussionen mit politischen Entscheidungsträgern, Medien und Mitarbeitern. „Der unvorsichtige Gebrauch von philosophisch aufgeladenen Begriffen wie ‚glaubt‘ und ‚denkt‘ sei besonders problematisch, da solche Begriffe den Mechanismus verschleiern und aktiv zur Vermenschlichung ermutigen“, erläutert er.

Wie Shanahan anmerkt, ist es normal und natürlich, eine anthropomorphe Sprache zu verwenden, um über Technologie zu sprechen. Das GPS glaubt, dass wir uns auf der Autobahnüberführung über uns befinden. Der E-Mail-Server kommuniziert nicht mit dem Netzwerk. Mein Telefon möchte, dass ich sein Betriebssystem aktualisiere. Dies sind Beispiele für das, was der Philosoph Daniel Dennett als intentionale Haltung bezeichnet, und in den meisten Fällen sind sie einfach nur nützliche (und harmlose) Redewendungen. Aber wenn es um LLMs geht, warnt Shanahan, „können die Dinge etwas unübersichtlicher werden“. Bei KI-Systemen, die das einzigartigste aller menschlichen Verhaltensweisen – die Sprache – so überzeugend imitieren, ist die Versuchung, diese Redewendungen wörtlich zu nehmen, „fast überwältigend“.

Tutorials, Onboarding-Materialien und die Unternehmenskommunikation sollten daher sehr bewusst mit der Sprache umgehen, die sie zur Beschreibung der Merkmale, der Funktion und des Zwecks von KI-Tools verwenden. Unternehmen sollten eine unnötige Vermenschlichung bei jeder Gelegenheit vermeiden. Wie die Forschung zum Placebo-Effekt von KI gezeigt hat, wird die Wahrnehmung von KI durch die Benutzer oft eher durch die Beschreibung als durch die tatsächlichen Fähigkeiten geprägt.4

Überlegen Sie es sich gut, KI-Assistenten mit realistischen Avataren und Stimmen auszustatten

Wenn KI-Modelle menschlicher aussehen, klingen und sich menschlicher anfühlen, kann dies das Vertrauen 5 und das Engagement 6 stärken, aber es kann auch das Risiko erhöhen. In der Systemkarte für GPT-4o – das eine realistische, menschenähnliche „Sprache“ erzeugen kann – stellte OpenAI fest, dass „die Generierung von Inhalten durch eine menschenähnliche, originalgetreue Stimme das Problem der [Ananthropomorphisierung] verschärfen kann, was zu einem zunehmend falsch kalibrierten Vertrauen führt.“ Während des Red Teaming und interner Tests beobachtete OpenAI „Benutzer, die eine Sprache verwendeten, die darauf hindeuten könnte, dass sie Verbindungen mit dem Modell herstellt“.7

Auch ohne das erhöhte Risiko einer emotionalen Bindung sollten sich Unternehmen bewusst sein, dass die Vermenschlichung ein zweischneidiges Schwert ist. Eine Studie im Journal of Marketing aus dem Jahr 2022 ergab, dass anthropomorphe Chatbots die Kundenzufriedenheit und die Meinung über das Unternehmen schmälerten: Im Wesentlichen hatten die Kunden höhere Erwartungen an menschenähnliche Chatbots und waren enttäuschter, wenn diese keinen Service auf menschlichem Niveau boten.8 Eine Reihe von Studien aus dem Jahr 2024 ergab, dass das Feedback eines anthropomorphisierten „KI-Coaches“ als weniger hilfreich empfunden wurde als das identische Feedback eines nicht-anthropomorphisierten KI-Coaches, der lediglich die Rolle der menschlichen Forscher bei der Entwicklung hervorhob.

Menschen könnten sich in einen realistischen Avatar verlieben. Sie werden sich (im Allgemeinen) nicht in eine sprechende Büroklammer verlieben.

Achten Sie auf die Warnzeichen

Der volle ELIZA-Effekt stellt sich nicht augenblicklich ein. Wie bei den meisten emotionalen Dingen setzt sich das Phänomen langsam aber stetig durch. Die Implementierung eines Mittels zur Erkennung und Reaktion auf Warnzeichen kann Unternehmen in die Lage versetzen, Probleme abzufangen und zu schließen, bevor sie sich zu echten Problemen entwickeln.

Guardrail-Modelle sind eine offensichtliche Möglichkeit für ein solches Erkennungssystem: Sie überwachen Eingaben und Ausgaben auf Sprache, die auf vordefinierte Risiken hinweist, und veranlassen das Modell, entsprechend zu handeln. Ein Leitplankenmodell, das erkennt und verhindert, dass der Austausch in das emotionale Terrain abweicht, kann dazu beitragen, dass die Dinge nicht zu weit gehen. Aber konventionelle Leitplankenmodelle allein könnten eine unvollständige Lösung sein, denn nicht jede problematische Interaktion bringt offene Emotionen und Romantik mit sich.

Selbst Mitarbeiter mit einem völlig realistischen Verständnis von KI werden in KI-Gesprächen manchmal etwas zu persönlich. Auch das ist ein Problem, denn viele Unternehmen speichern und analysieren Interaktionen mit KI-Systemen, um zu verstehen und zu optimieren, wie die Tools von Mitarbeitern oder Kunden genutzt werden. Dies kann Unternehmen in die unbequeme Lage bringen, sensible personenbezogene Informationen zu erhalten, die sie aus rechtlichen oder moralischen Gründen nicht handhaben würden – Informationen, die ansonsten zu spezifisch und scheinbar harmlos sind, um ein Leitplankenmodell zu trainieren.

Aus diesem Grund arbeitet IBM an einem „System zur Wahrung der Privatsphäre bei großen Sprachmodellen“, das verhindern soll, dass Benutzer zu viele Informationen an KI-Modelle weitergeben. Das System würde Eingaben auf personenbezogene Daten überprüfen, den beanstandeten Prompt klassifizieren (um ihre Absicht zu verstehen) und dann die sensiblen Informationen durch generische Platzhalter ersetzen. Nur eine anonymisierte Version der Benutzereingabe würde für zukünftiges Training gespeichert werden.

Verlangsamen Sie die Dinge und bringen Sie Abwechslung ins Spiel

Die oben erwähnte Studie aus dem Jahr 2023 im Journal of Applied Psychology ist eine von vielen, die einen Zusammenhang zwischen der Häufigkeit oder Dauer von Chatbot-Interaktionen und Einsamkeit oder problematischer Nutzung aufzeigen. Die Implikationen sind relativ einfach: Die strategische Begrenzung der Nutzung kann emotionale Risiken begrenzen. Richtig ausgeführt, kann dies ohne Beeinträchtigung der Produktivität geschehen und sogar potenziell die Kosten für Schlussfolgerungen senken.

Eine indirektere Methode wäre, das Nutzungsverhalten in regelmäßigen Abständen zu unterbrechen, um zu verhindern, dass sich die Nutzer zu sehr in eine bestimmte Richtung orientieren. Eine MIT-Studie stellt beispielsweise fest, dass Interventionen wie eine auferlegte „Abkühlungsphase“ dazu beitragen können, „schnelle Urteile zu verlangsamen und eine nachdenklichere Beteiligung zu fördern“.6 Mit anderen Worten, solche Interventionen könnten die Benutzer sanft weg vom impulsiven Denken von System 1 und hin zu einem bewussteren Denken von System 2 bewegen.

Eine regelmäßige Veränderung der Verhaltensmuster des KI-Systems selbst, z. B. durch die Änderung seiner Persönlichkeit, könnte ebenfalls einen Beitrag zur Vermeidung problematischer Nutzungsmuster leisten. In einem Artikel der New York Times über eine Frau, die in ChatGPT verliebt ist und täglich viele Stunden auf der Plattform verbringt, heißt es, dass jedes Mal, wenn sie das Kontextfenster des Modells ausschöpft, die „Persönlichkeit“ und das Gedächtnis ihres KI-„Freundes“ teilweise zurückgesetzt wird. Jedes Mal, wenn dies passiert, trauert sie. Aber danach hält sie sich auch „ein paar Tage lang von ChatGPT fern“.

In einem Artikel aus dem Jahr 2024, der die Folgen eines großen App-Updates bei Replika AI, einem Chatbot-Begleiterdienst, untersucht, argumentierten die Autoren, dass „Identitätskontinuität entscheidend für die Entwicklung und Aufrechterhaltung einer Beziehung zu einem KI-Begleiter ist“.9 Die kontrapositive Implikation dieser Erkenntnis wäre, dass die Störung der Identitätskontinuität eines Chatbots entscheidend sein könnte, um eine emotionale Bindung an einen KI-Begleiter zu vermeiden.

Fördern Sie echte menschliche Verbindungen am Arbeitsplatz

Der beste Schutz vor dem Einsatz von KI, um eine emotionale Leere zu füllen, besteht vielleicht in der Reduzierung des Potenzials, diese Leere überhaupt erst entstehen zu lassen. Generative KI kann mühsame tägliche Arbeit ersetzen, ist aber kein Ersatz für die alltägliche Kameradschaft zwischen menschlichen Kollegen.

Eine Studie über das Nutzungsverhalten von Chatbots und ihre Beziehung zur Einsamkeit ergab beispielsweise eine signifikante Korrelation zwischen der Häufigkeit der Chatbot-Nutzung und zunehmender Einsamkeit oder sozialem Rückzug. Dies gilt jedoch nicht für Nutzer mit starken sozialen Netzwerken in der realen Welt. Nutzer mit starken sozialen Netzwerken interagierten nicht nur im Allgemeinen weniger mit Chatbots, sondern hatten auch weitaus weniger Probleme als Nutzer ohne eine vergleichbare soziale Unterstützung. Sie nutzten Chatbots in der Regel für praktische Zwecke und zur Unterhaltung und nicht als Beziehungsersatz.10 Diese Ergebnisse stehen im Einklang mit der parasozialen Kompensationshypothese, die besagt, dass einsame, isolierte und sozial ängstliche Menschen eher parasoziale „Beziehungen“ zu Prominenten oder Influencern eingehen.11

Glücklicherweise ist dies ein Beispiel dafür, dass KI die Lösung für ihre eigenen Probleme sein kann. Wenn die generativen KI-Lösungen Ihres Unternehmens die Produktivitätssteigerungen liefern, die sie versprechen, sollte es weder an Zeit noch an Geld für ein paar Pizzapartys mangeln.

AI Academy

Nutzen Sie KI für Ihren Kundenservice

Erfahren Sie, wie der Einsatz von generativer KI mit einer nahtloseren Erfahrung die Kundenzufriedenheit erhöht und die Produktivität des Unternehmens in diesen drei Schlüsselbereichen steigert: Self-Service, Servicemitarbeiter und Abläufe im Contact Center.

Weiterführende Lösungen
IBM watsonx Assistant

Überzeugen Sie mit einer konsistenten und intelligenten Kundenbetreuung mit dialogorientierter KI. Entdecken Sie, wie Sie mit IBM watsonx Assistant die Kommunikation mit Kunden beschleunigen, die Produktivität steigern und Ihr Geschäftsergebnis verbessern können.

watsonx Assistant entdecken
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
Machen Sie den nächsten Schritt

Erstellen Sie mühelos generative KI-Assistenten, die Kunden über jedes Gerät oder jeden Kanal reibungslose Self-Service-Erfahrungen bieten, die Produktivität Ihrer Mitarbeiter steigern und die Skalierung in Ihrem Unternehmen ermöglichen.

watsonx Assistant entdecken Entdecken sie watsonx.ai
Fußnoten