Innovation

Mit AI Explainability 360 KI-Entscheidungen entschlüsseln

Um alltägliche Dinge zu erklären, greifen wir auf einen umfangreichen und ausdrucksstarken Wortschatz zurück. Wir benutzen Beispiele, Gegenbeispiele, erstellen Regeln und Muster und heben wichtige Merkmale hervor, die vorhanden sind oder eben nicht. Wir als Menschen erwarten eine solche Erklärbarkeit auch bei Entscheidungen, die von Algorithmen getroffen werden. Wir wollen nachvollziehen können, wie maschinelle Lernmodelle zu ihren Entscheidungen kommen. Zum Beispiel profitieren Ärzte davon, verschiedene Krankheitsbilder für eine Diagnose zu vergleichen, die entweder sehr ähnlich oder sehr verschieden sind. Ein Bankkunde möchte nachvollziehen können, warum seine Kreditanfrage abgelehnt wurde und wie er seinen Antrag anpassen muss. Auf der anderen Seite wird eine Regulierungsbehörde ihre Entscheidung zu einem Vorgang nicht nur auf eine einzige Datenquelle und eine Ausgangslage stützen, sondern die zu entscheidende Situation als Ganzes betrachten, um so sicherzustellen, dass alles den Vorschriften entspricht. Ein IT-Entwickler wiederum wird nachvollziehen wollen, an welchen Stellen ein Programmiermodell Stärken oder Schwächen hat, um dessen Leistung zu verbessern.

Verschiedene Nutzer benötigen also auch unterschiedliche Erklärungen, wie Algorithmen zu Entscheidungen kommen. Dabei gibt es nicht den einen richtigen Ansatz, der am besten funktioniert. Vielmehr kommt es auf den Einzelfall und die jeweiligen Anforderungen an.

ai-explainability-360-usage-diagramErklärbarkeit über eine einzige Schnittstelle liefern

Um diese unterschiedlichen Erklärungsansätze genauer zu beschreiben, haben wir bei IBM AI Explainability 360 entwickelt. Dieses neue Open-Source Toolkit enthält Algorithmen für fallbezogenes Denken, so genannte lokale und globale Post-hoc Erklärungen und vieles mehr. Für die verschiedenen Möglichkeiten zur Erklärung von Algorithmen können Nutzer auf die folgenden Hilfestellungen zurückgreifen:

  • Die AI Explainability 360 Demo, eine interaktive Demo, die eine einfache Einführung durch eine Credit-Scoring-Anwendung bietet.
  • Mehrere detaillierte Tutorials, die Data Scientists anleiten, wie sie die Erklärbarkeit von KI auf andere Bereiche anwenden können – beispielsweise auf die klinische Medizin, das Gesundheits- oder das Personalwesen.
  • Dokumentation, die den User bei der Auswahl einer passenden Erklärmethode unterstützen.

Das Toolkit wurde mit einer gemeinsamen Schnittstelle für alle möglichen Arten von Erklärmustern entwickelt – keine einfache Aufgabe. Darüber hinaus kann es erweitert werden, um Innovationen der Community zu beschleunigen, die zur Weiterentwicklung von KI beitragen. Wir haben uns bewusst für einen Open-Source-Ansatz entschieden, um eine aktive Community aus Data Scientists, politischen Entscheidungsträgern und der breiten Öffentlichkeit auf diesem Gebiet zu schaffen: Eine Community, die versteht, wie gewisse Algorithmen funktionieren und wie sich die Entscheidungen dieser Algorithmen auf ihre Praxisbereiche auswirken. AI Explainability 360 unterscheidet sich von anderen Open-Source-Programmen zur Erklärbarkeit von KI-Anwendungen vor allem durch die Vielfalt ihrer Methoden, ihrem Fokus auf die Ausbildung unterschiedlicher Stakeholder sowie die Erweiterbarkeit durch ein gemeinsames Framework.

Vertrauenswürdige KI-Empfehlungen sicherstellen

Darüber hinaus interagiert es mit AI Fairness 360 und Adversarial Robustness 360, zwei weiteren Open-Source Toolboxes von IBM Research, die 2018 eingeführt wurden, um die Entwicklung von ganzheitlichen und vertrauenswürdigen so genannter Machine Learning-Pipelines zu unterstützen. Die erste Version besteht aus acht Algorithmen und beinhaltet Metriken aus der Community als quantitative Proxies, um die Qualität der Erklärungen sicherzustellen. Wir würden es sehr begrüßen, wenn die Research Community selbst den Ball aufnimmt und weitere Algorithmen entwickelt oder sich an dem Toolkit beteiligt.

ai-explainability-360-decision-tree

Zwei der Algorithmen sind besonders hervorzuheben: Boolean Classification Rules via Column Generation – eine sehr genaue und skalierbare Methode, um maschinelle Lernmodelle direkt nachzuvollziehen. Das hat auch die Jury der FICO Explainable Machine Learning Challenge überzeugt und die Arbeit mit dem ersten Preis bedacht.

Der zweite Algorithmus ist die Contrastive Explanations Method – die vielleicht wichtigste lokale Post-hoc Methode, wenn es darum geht, KI nachzuvollziehen: Sie erklärt, warum ein Ereignis nicht isoliert, sondern anstelle eines anderen Ereignisses stattgefunden hat.

Verzerrungen bereits während der Ausführung erkennen

AI Explainability 360 ergänzt die bahnbrechenden Algorithmen von IBM Research, die in Watson OpenScale integriert wurden. Die Plattform wurde letztes Jahr veröffentlicht und unterstützt Kunden bei der transparenten Verwaltung von KI während des gesamten KI-Lebenszyklus, unabhängig davon, wo die KI-Anwendungen erstellt wurden oder in welcher Umgebung sie laufen. OpenScale erkennt und berücksichtigt auch Verzerrungen im gesamten Spektrum von KI-Anwendungen, während diese Anwendungen ausgeführt werden.

Add Comment
No Comments

Leave a Reply

Your email address will not be published.Required fields are marked *

More Innovation Stories

IBM Domino: App-Entwicklung im agilen Umfeld

IBM hat heute die Verfügbarkeit der nächsten Generation seiner Domino-Plattform – Domino V10 – angekündigt und leitet damit die nächste Phase des Rapid Application Developments für die heutigen digitalen Unternehmen ein. Die Plattform-, Datenbank- und Anwendungsentwicklungswerkzeuge von Domino sind besonders einfach zu nutzen und werden von Unternehmen zur Automatisierung wichtiger Prozesse eingesetzt. Weltweit setzen Unternehmen […]

Cannes Lions 2017: Im Epizentrum von Kreativität und Technologie

Vom 17.-24. Juni fand das größte Kreativfestival der Welt statt: das Cannes Lions International Festival of Creativity. Die dort verliehenen “Löwen” in Gold, Silber und Bronze entsprechen den Olympischen Spielen im Sport. Arbeiten, die bei den Lions ausgezeichnet werden, gelten als richtungsweisend für Agenturen und deren Kunden. Dabei sind die Cannes Lions inzwischen längst mehr […]

Der digitale Zwilling in der Industrie 4.0: Doppelt hält besser

Der digitale Zwilling in der Industrie 4.0 ist im Moment eines der heißesten Themen der Branche und für die Unternehmen, die ihn nutzen, noch vielfach Neuland. Dahinter verbirgt sich eine digitale Repräsentation eines Produkts, das sein reales Gegenstück widerspiegelt. Kurzum: Der digitale Zwilling ist das Bindeglied zwischen digitaler und realer Welt. In seiner vollständigen Definition […]