Lesen Sie, wie erklärbare KI von Produktions-KI profitiert

Was ist erklärbare KI?

Erklärbare künstliche Intelligenz (XAI) ist eine Reihe von Prozessen und Methoden, die es menschlichen Anwendern ermöglichen, die von maschinellen Lernalgorithmen erzeugten Ergebnisse und Ausgaben zu verstehen und ihnen zu vertrauen. Erklärbare KI wird verwendet, um ein KI-Modell, seine erwartete Wirkung und potenzielle Bias systematische Fehler zu beschreiben. Sie hilft bei der Charakterisierung von Modellgenauigkeiten, Fairness, Transparenz und Ergebnissen bei der KI-gestützten Entscheidungsfindung. Erklärbare KI ist für ein Unternehmen entscheidend, um Vertrauen zu schaffen, wenn KI-Modelle in Produktion gehen. KI-Erklärbarkeit hilft auch einem Unternehmen, einen verantwortungsbewussten Ansatz für die KI-Entwicklung zu wählen.

Je weiter die KI fortgeschritten ist, desto mehr ist der Mensch gefordert, zu verstehen und nachzuvollziehen, wie der Algorithmus zu einem Ergebnis gekommen ist. Der gesamte Berechnungsprozess wird zu einer so genannten "Black Box", die unmöglich zu interpretieren ist. Diese Blackbox-Modelle werden direkt aus den Daten erstellt. Und nicht einmal die Ingenieure oder Data-Scientists, die den Algorithmus erstellen, können verstehen oder erklären, was genau in ihnen geschieht oder wie der KI-Algorithmus zu einem bestimmten Ergebnis gelangt ist.

Es gibt viele Vorteile, wenn man versteht, wie ein KI-gestütztes System zu einem bestimmten Ergebnis geführt hat.  Die Erklärbarkeit kann den Entwicklern helfen, sicherzustellen, dass das System wie erwartet funktioniert, sie kann notwendig sein, um regulatorische Standards zu erfüllen, oder sie kann wichtig sein, um den von einer Entscheidung Betroffenen zu ermöglichen, das Ergebnis anzufechten oder zu ändern.¹

Experte bei der Arbeit am Laptop

Warum ist erklärbare KI wichtig?

Es ist von entscheidender Bedeutung, dass eine Organisation ein umfassendes Verständnis der KI-Entscheidungsprozesse mit Modellüberwachung und Rechenschaftspflicht der KI hat und ihnen nicht blind vertraut. Erklärbare KI kann Menschen helfen, Algorithmen des maschinellen Lernens (ML), Deep Learning und neuronale Netze zu verstehen und zu erklären.

ML-Modelle werden oft als Black Boxes betrachtet, die unmöglich zu interpretieren sind.² Neuronale Netzwerke, die beim Deep Learning verwendet werden, sind für einen Menschen am schwersten zu verstehen. Systematische Fehler, oft basierend auf Rasse, Geschlecht, Alter oder Ort, sind seit langem ein Risiko beim Training von KI-Modellen. Darüber hinaus kann die Leistung von KI-Modellen abweichen oder sich verschlechtern, da sich die Produktionsdaten von den Trainingsdaten unterscheiden. Daher ist es für ein Unternehmen von entscheidender Bedeutung, Modelle kontinuierlich zu überwachen und zu verwalten, um die KI-Erklärbarkeit zu fördern und gleichzeitig die geschäftlichen Auswirkungen der Verwendung solcher Algorithmen zu messen. Erklärbare KI trägt auch dazu bei, das Vertrauen der Endbenutzer, die Überprüfbarkeit der Modelle und die produktive Nutzung von KI zu fördern. Sie verringert auch Compliance-, Rechts-, Sicherheits- und Reputationsrisiken der Produktions-KI.

Erklärbare KI ist eine der wichtigsten Voraussetzungen für die Implementierung verantwortungsvoller KI, einer Methodik für die groß angelegte Implementierung von KI-Methoden in realen Unternehmen mit Fairness, Erklärbarkeit der Modelle und Verantwortlichkeit.³ Um eine verantwortungsvolle Einführung von KI zu unterstützen, müssen Organisationen ethische Prinzipien in KI-Anwendungen und -Prozesse einbetten, indem sie KI-Systeme auf der Grundlage von Vertrauen und Transparenz aufbauen.

Person, die Menschen in einer Videobesprechung auf einem Laptop betrachtet

Kontinuierliche Modellauswertung

Mit erklärbarer KI kann ein Unternehmen Fehler beheben und die Modellleistung verbessern, während es den Stakeholdern hilft, das Verhalten der KI-Modelle zu verstehen. Die Untersuchung des Modellverhaltens durch die Verfolgung von Modellinformationen zu Implementierungsstatus, Fairness, Qualität und Abweichung ist für die Skalierung von KI unerlässlich. Die kontinuierliche Modellauswertung ermöglicht es einem Unternehmen, Modellvorhersagen zu vergleichen, das Modellrisiko zu quantifizieren und die Modellleistung zu optimieren. Anzeige positiver und negativer Werte im Modellverhalten mit Daten, die zur Erzeugung von Erklärungsgeschwindigkeits-Modellauswertungen verwendet werden. Eine Daten- und KI-Plattform kann Feature-Attributionen für Modellvorhersagen generieren und Teams in die Lage versetzen, das Modellverhalten mit interaktiven Diagrammen und exportierbaren Dokumenten visuell zu untersuchen.

Experte bei der Arbeit am Laptop

Wert der erklärbaren KI

Aus einer Forrester-Studie über erklärbare KI und Modellüberwachung in IBM Cloud Pak for Data

Erklärbare KI-Vorteile

KI mit Vertrauen und Zuversicht operationalisieren

Bauen Sie Vertrauen in die Produktions-KI. Bringen Sie Ihre KI-Modelle schnell zur Produktion. Gewährleistung der Interpretierbarkeit und Erklärbarkeit von KI-Modellen. Vereinfachen Sie den Prozess der Modellauswertung bei gleichzeitiger Erhöhung der Modelltransparenz und der Rückverfolgbarkeit.

Verkürzen Sie die Zeit, bis Sie zu KI-Ergebnissen gelangen

Systematische Überwachung und Verwaltung von Modellen zur Optimierung von Geschäftsergebnissen. Modellleistung kontinuierlich auswerten und verbessern. Feinabstimmung der Entwicklungsanstrengungen auf der Grundlage einer kontinuierlichen Auswertung.

Reduzierung von Risiken und Kosten der Modell-Governance

Halten Sie Ihre KI-Modelle erklärbar und transparent. Verwalten Sie regulatorische, Konformitäts-, Risiko- und andere Anforderungen. Minimieren Sie den Aufwand für die manuelle Prüfung und kostspielige Fehler. Verringern Sie das Risiko eines unbeabsichtigten systematischen Fehlers.

Der IBM Ansatz für erklärbare KI

Seit mehr als 100 Jahren strebt IBM kontinuierlich nach Innovationen, die allen und nicht nur einigen wenigen einen Nutzen bringen. Diese Philosophie wird auch auf KI angewendet: Wir wollen zuverlässige Technologie entwickeln und anbieten, die menschliche Entscheidungsfindungsprozesse ergänzen kann, aber nicht ersetzen soll.

Während KI verspricht, wertvolle Erkenntnisse und Muster über eine Vielzahl von Anwendungen hinweg zu liefern, wird die breite Akzeptanz von KI-Systemen stark davon abhängen, ob die Menschen der KI-Leistung vertrauen. Menschliches Vertrauen in die Technologie basiert auf unserem Verständnis davon, wie sie funktioniert, und auf unserer Einschätzung ihrer Sicherheit und Zuverlässigkeit. Dies macht erklärbare KI entscheidend.  Der Ansatz von IBM bei der erklärbaren KI ist es, KI zuverlässig und fair zu machen, sie rechenschaftsfähig zu machen und sicherzustellen, dass sie keinen Schaden anrichtet.

Im Zentrum unserer Innovation entwickelt IBM Research verschiedene Ansätze, wie Fairness, Robustheit, Erklärbarkeit, Verantwortlichkeit und Werteausrichtung erreicht werden können und wie diese über den gesamten Lebenszyklus einer KI-Anwendung integriert werden können. Erklärbare KI-Frameworks und -Toolsets von IBM Research sind in die IBM Cloud Pak for Data-Plattform integriert, damit Unternehmen unsere neueste KI-Technologie in einer geregelten, sicheren und skalierbaren Art und Weise nutzen können.

Person, die auf ein Mobiltelefon schaut, während sie vor einem Bürofenster steht

Fünf Überlegungen für erklärbare KI

Fünf Überlegungen für erklärbare KI

Um wünschenswerte Ergebnisse mit erklärbarer KI zu erzielen, sollten Sie Folgendes beachten:

Fairness und Abschaffung systematischer Fehler: Fairness verwalten und überwachen. Scannen Sie Ihre Implementierung auf potenzielle systematische Fehler. 

Reduzierung der Modellabweichung: Analysieren Sie Ihr Modell und geben Sie Empfehlungen auf der Grundlage des logischsten Ergebnisses. Warnen Sie, wenn Modelle von den beabsichtigten Ergebnissen abweichen.

Modellrisikomanagement: Quantifizieren und reduzieren Sie das Modellrisiko. Lassen Sie sich benachrichtigen, wenn ein Modell eine unzureichende Leistung erbringt. Verstehen Sie, weshalb Abweichungen bestehen bleiben.

Lebenszyklusautomatisierung: Erstellen, Ausführen und Verwalten von Modellen als Teil der integrierten Daten- und KI-Services. Vereinheitlichen Sie die Tools und Prozesse auf einer Plattform zum Überwachen von Modellen und zum Teilen von Ergebnissen. Erklären Sie die Abhängigkeiten von Modellen für das maschinelle Lernen.

Multicloud-fähig: Implementieren Sie KI-Projekte über Hybrid Clouds hinweg, einschließlich öffentlicher Clouds, privater Clouds und vor Ort. Fördern Sie Vertrauen und Zuversicht in erklärbare KI.

Nahaufnahme eines modernen Glasgebäudes

KI-Erklärbarkeit mit IBM Cloud Pak for Data verbessern

Die IBM Cloud Pak® for Data-Plattform stellt Daten- und KI-Services in einer einheitlichen Umgebung bereit, damit ein Unternehmen die Auswirkungen und Beziehungen von Daten und Modellen bewerten kann, um die KI-Erklärbarkeit zu verbessern. Sie hilft einem Unternehmen auch, Modellinformationen zu Einsatz, Fairness, Qualität und Risiko zu gewinnen. Die Lösung hilft bei der Erklärung von KI-Transaktionen, kategorischen Modellen, Bildmodellen und unstrukturierten Textmodellen mit Werkzeugen wie kontrastiven Erklärungen und lokal interpretierbaren modell-agnostischen Erklärungen (LIME). KI erklärbar und transparent zu machen, indem der KI-Lebenszyklus auf einer modernen Informationsarchitektur automatisiert wird, ist entscheidend für den KI-Erfolg in der Produktion.

Vertiefung von erklärbarer KI

Wie funktioniert erklärbare KI?

Mit erklärbarer KI - sowie interpretierbarem maschinellem Lernen - erhalten Unternehmen Zugang zu den der KI-Technologie zugrundeliegenden Entscheidungen und sind in der Lage, Anpassungen vorzunehmen. Erklärbare KI kann das Benutzererlebnis eines Produkts oder eines Service verbessern, indem sie dem Endbenutzer hilft, darauf zu vertrauen, dass die KI gute Entscheidungen trifft. Wann geben KI-Systeme genug Gewissheit in die Entscheidung, dass man ihr vertrauen kann, und wie kann das KI-System auftretende Fehler korrigieren?⁴

Auch wenn die KI immer fortschrittlicher wird, müssen ML-Prozesse immer noch verstanden und kontrolliert werden, um sicherzustellen, dass die KI-Modellergebnisse korrekt sind. Schauen wir uns den Unterschied zwischen KI und XAI an, die Methoden und Techniken, die verwendet werden, um KI in XAI zu verwandeln, und den Unterschied zwischen dem Interpretieren und Erklären von KI-Prozessen.

Vergleich zwischen KI und XAI

Was genau ist der Unterschied zwischen "normaler" KI und erklärbarer KI? XAI implementiert spezielle Techniken und Methoden, um sicherzustellen, dass jede Entscheidung, die während des ML-Prozesses getroffen wird, nachvollziehbar und erklärbar ist. KI hingegen kommt hingegen oft mithilfe eines ML-Algorithmus zu einem Ergebnis, aber die Architekten der KI-Systeme verstehen nicht vollständig, wie der Algorithmus zu diesem Ergebnis gekommen ist. Dies erschwert die Überprüfung der Richtigkeit und führt zu einem Verlust an Kontrolle, Verantwortlichkeit und Nachvollziehbarkeit.

Erklärbare KI-Techniken

Der Aufbau von XAI-Techniken besteht aus drei Hauptmethoden. Vorhersagegenauigkeit und Rückverfolgbarkeit adressieren technologische Anforderungen, während das Verständnis von Entscheidungen menschliche Bedürfnisse anspricht. Erklärbare KI - insbesondere erklärbares maschinelles Lernen - wird von entscheidender Bedeutung sein, wenn im künftigen Einsatz an vorderster Front eine aufkommende Generation von künstlich intelligenten Maschinenpartnern verstanden, ihnen angemessen vertraut und sie effektiv gemanagt werden soll.⁵

Vorhersagegenauigkeit
Genauigkeit ist eine Schlüsselkomponente dafür, wie erfolgreich der Einsatz von KI im täglichen Betrieb ist. Durch Ausführen von Simulationen und Vergleichen des XAI-Ergebnisses mit den Ergebnissen im Trainingsdatensatz kann die Vorhersagegenauigkeit ermittelt werden. Die populärste Technik, die dafür verwendet wird, sind lokal interpretierbare modell-agnostische Erklärungen (LIME), die die Vorhersage von Klassifikatoren durch den ML-Algorithmus erklären.

Rückverfolgbarkeit
Die Rückverfolgbarkeit ist eine weitere Schlüsseltechnologie für die Umsetzung von XAI. Dies wird z. B. dadurch erreicht, dass die Art und Weise, wie Entscheidungen getroffen werden können, eingeschränkt wird und ein engerer Rahmen für ML-Regeln und -Funktionen festgelegt wird. Ein Beispiel für eine rückverfolgbare XAI-Technik ist DeepLIFT (Deep Learning Important FeaTures), welches die Aktivierung jedes Neurons mit seinem Referenzneuron vergleicht und eine rückverfolgbare Verbindung zwischen jedem aktivierten Neuron und sogar Abhängigkeiten zwischen ihnen anzeigt.

Entscheidungsverständnis
Das ist der menschliche Faktor. Viele Menschen haben ein Misstrauen gegenüber KI, doch um effizient mit ihr zu arbeiten, müssen sie lernen, ihr zu vertrauen. Dies wird erreicht, indem das Team, das mit der KI arbeitet, geschult wird, damit es versteht, wie und warum die KI Entscheidungen trifft.

Erklärbarkeit versus Interpretierbarkeit bei KI

Interpretierbarkeit ist der Grad, bis zu dem ein Beobachter die Gründe einer Entscheidung verstehen kann. Sie ist die Erfolgsquote, die Menschen für das Ergebnis einer KI-Ausgabe vorhersagen können, während die Erklärbarkeit einen Schritt weiter geht und betrachtet, wie die KI zu dem Ergebnis gekommen ist.

Wie verhält sich erklärbare KI zu verantwortungsvoller KI?

Erklärbare KI und verantwortungsvolle KI haben ähnliche Ziele, aber unterschiedliche Ansätze. Hier sind die Hauptunterschiede zwischen erklärbarer und verantwortungsvoller KI:

  • Erklärbare KI betrachtet KI-Ergebnisse, nachdem die Ergebnisse berechnet wurden.
  • Verantwortliche KI betrachtet KI während der Planungsphasen, um den KI-Algorithmus verantwortlich zu machen, bevor die Ergebnisse berechnet werden.
  • Erklärbare und verantwortliche KI können zusammenarbeiten, um bessere KI zu kreieren.

Um mehr über die erklärbare KI zu erfahren, melden Sie sich für eine IBMid an und starten Sie Ihren IBM Cloud Pak for Data-Test noch heute.

So implementieren Sie erklärbare KI

Verwenden Sie diese Ressourcen, um mehr darüber zu erfahren, wie die erklärbare KI implementiert werden kann.

Online-Seminar: Vorgehensweise zum Verwalten und Überwachen von Modellen
Erfahren Sie, was Sie tun können, wenn Ihre Modelle nicht funktionieren.
Sehen Sie sich das Webinar an (Link befindet sich außerhalb von IBM) →

Lernpfad: KI mit Vertrauen verwalten
Erfahren Sie, wie Sie die Ergebnisse von KI über den gesamten Lebenszyklus hinweg verfolgen und messen und gleichzeitig KI an die sich ändernden Geschäftsbedingungen anpassen und steuern können.
Schauen Sie sich das Lernprogramm an →

Praktische Übung: Computer-Lernmodelle überwachen
Erkunden Sie die schrittweisen Prozesse zur Bewertung von Modellen hinsichtlich Fairness, Genauigkeit und Erklärbarkeit. 
Schauen Sie sich das Labor an →

Anwendungsfälle erklärbarer KI

Gesundheitswesen

Nahaufnahme von 3 operierenden Chirurgen

Schnellere Diagnostik, Bildanalyse, Ressourcenoptimierung und medizinische Diagnostik. Verbesserung der Transparenz und Rückverfolgbarkeit von Entscheidungsprozessen für die Patientenversorgung. Optimieren Sie den pharmazeutischen Zulassungsprozess mit erklärbarer KI.

Finanzdienstleistungen

Person, die eine Kreditkarte während der Arbeit an einem Laptop hält

Verbessern Sie das Kundenerlebnis durch einen transparenten Darlehens- und Kreditgenehmigungsprozess. Beschleunigen Sie die Risikobewertung von Kreditrisiken, Vermögensverwaltung und Finanzkriminalität. Beschleunigen Sie die Lösung von potenziellen Beschwerden und Problemen. Steigern Sie das Vertrauen in die Preisgestaltung, Produktempfehlungen und Wertpapierdienstleistungen.

Strafjustiz

Polizeibeamter vor einem mit Absperrband markierten Bereich

Optimieren Sie Prozesse zur Vorhersage und Risikobewertung. Beschleunigen Sie mit erklärbarer KI Entschlüsse bei DNA-Analysen, Gefängnisbelegungsanalysen und Kriminalitätsprognosen. Erkennen Sie potenzielle systematische Fehler in Trainingsdaten und Algorithmen.

Fußnoten

¹ ”Explainable AI,” The Royal Society, 28. November 2019. (Link befindet sich außerhalb von IBM)
² ”Explainable Artificial Intelligence,” Jaime Zornoza, 15. April 2020. (Link befindet sich außerhalb von IBM)
³ ”Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI,” ScienceDirect, Juni 2020. (Link befindet sich außerhalb von IBM)
⁴ ”Understanding Explainable AI,” Ron Schmelzer, Forbes-Autor, 23. Juli 2019. (Link befindet sich außerhalb von IBM)
⁵ ”Explainable Artificial Intelligence (XAI),” Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA). (Link befindet sich außerhalb von IBM)