Human Friendly Automation

Vertrauensvolle KI – Softer Faktor oder hartes Business?

Veröffentliche eine Notiz:

Künstliche Intelligenz ist in aller Munde und damit verbunden sind auch viele Verständnis-Fragen und ethische Diskussionen. Um Licht in die Black Box zu bringen, wird „Vertrauensvolle KI“ als ein vielversprechendes Tool gehandelt. IBM hat um Trustful AI mittlerweile ein Geschäftsmodell aufgebaut. Doch was steckt dahinter? 

Vertrauensvolle KI IBM Künstliche Intelligenz

Ein Interview mit Dilek Sezgün, Industrie Business Development Leader, AI, Big Data and Open Source IBM DACH, geführt von Katrin-Cécile Ziegler (Tech-Journalistin & Digital Economist).

Vertrauensvolle KI wird oft der Digitalen Ethik zugeordnet und damit als softer Faktor abgestempelt. Wie ordnest du es ein?

Dilek: Vertrauensvolle KI ist keineswegs ein softes Thema, sondern vielmehr mit harten Fakten verbunden. Wir haben in der Vergangenheit schon einige Male in der Öffentlichkeit mitbekommen, wie KI-Anwendungen den Ruf eines Unternehmens schädigen können. Ein bekanntes Beispiel sind Rekrutierungsmodelle, die Bewerberinnen oder Menschen nach Hautfarben diskriminieren. In solchen Fällen liegt ein Bias – also eine Verzerrung – vor. Das bedeutet, der Algorithmus wurde falsch programmiert oder schlecht trainiert. Verantwortlich ist dafür immer der Mensch, nicht die AI. Und das kann teuer werden.

Das bedeutet, ein Algorithmus an sich ist grundsätzlich neutral?

Dilek: Nein. Technologie ist grundsätzlich zunächst neutral. Allerdings: Der Mensch, der einen Algorithmus programmiert, bringt seinen kulturellen Hintergrund und seine Wertvorstellungen mit. Und genau darum müssen wir ein Modell nicht nur immer wieder hinterfragen, sondern uns bereits zuvor Gedanken machen, wie wir z.B. Vielfalt oder Gerechtigkeit auch in Algorithmen abbilden. Ein Beispiel: Ein Kunde wird für einen Kredit abgelehnt, während sein Nachbar für denselben Kredit akzeptiert wird, und das zu hervorragenden Konditionen. Kann das Unternehmen dem Kunden eine Erklärung geben? Mit vertrauensvoller KI, ja.

Vertrauensvolle KI ist also immer dann relevant, wenn es um Entscheidungen über Menschen geht?

Nicht unbedingt. Vertrauensvolle KI ist auch im industriellen Kontext, z.B. für einen Automobilhersteller von Bedeutung, weil dieser wissen und verstehen muss, wie ein Modell des Zulieferers trainiert wurde. Ein Beispiel wären hierfür die automatisierten Scheibenwischer, die bei Regen angehen. Der Zulieferer trainiert das Modell und muss offen legen, wie der Algorithmus agiert.  Denn im Falle eines Unfalls muss das auch der Automobilhersteller nachvollziehen können. Hätte das Unternehmen hierzu keine Kenntnis oder Einblick, könnte das zu Problemen führen. Es geht dabei auch um Haftungsfragen. 

Wenn letztlich jeder technologische Bias auf einen Menschen zurückzuführen ist, was denkst du, warum legen wir bei Technologien trotzdem andere Maßstäbe an als bei Menschen – auch aus moralischer Sicht?

Das hat viel damit zu tun, dass wir Science-Fiction-Filme im Kopf haben. Diese Angst, dass die Maschine Macht übernimmt und uns etwas wegnimmt – weil sie selbständig lernt. Aber in erster Linie ist die Maschine keine Magie, sondern vorprogrammiert. Von einem Menschen. Das ist immer wieder wichtig zu betonen. Und umso mehr wir an programmierte Maschinen delegieren, umso mehr werden wir uns auch unserer selbst bewusst. Weil wir uns nun damit auseinandersetzen müssen und gespiegelt wird, welche Muster wir anwenden. Tun wir das nicht, wird das, was im Nachhinein auf uns zukommt, weitreichende und teure Konsequenzen haben.

Das bedeutet wiederum, wir können mit einem solchen Tool auch unsere eigenen Vorurteile abbauen. Doch wie wird KI nun vertrauensvoll, so dass „Vertrauensvolle KI“ nicht nur ein Buzzword bleibt?

Wir bei IBM gehen nach 5 Kriterien vor: Explainability, Fairness, Robustness, Transparency und Data Privacy.

„Explainablity“ besagt, dass bei einem Training alles erklärbar sein muss. Wie am Beispiel der Scheibenwischer muss jeder Programmschritt dokumentiert und erklärt werden, was gleichzeitig zu einer hohen Transparenz führt.  Erklärbarkeit zielt also auf die Frage ab, wie ich das Modell benutzt habe.

„Fairness“ dagegen setzt den Fokus auf die Frage, ob alle wichtigen Elemente enthalten sind. Fairness steht also für Gerechtigkeit und sorgt dafür, dass die KI so kalibriert ist, dass sie den Menschen dabei unterstützt, gerechte Entscheidungen treffen zu können.

„Robustness“ bedeutet, dass die KI entsprechend leistungsfähig ist. 

Und Transparenz gewährleistet, dass ich eine Dokumentation über mein Modell und die Facts und Features vorweisen kann.

Zu guter Letzt achten wir selbstverständlich auch auf die Privacy, also den Datenschutz. Denn KI-Systeme müssen die Rechte von Verbrauchern in Bezug auf Privatsphäre und Daten priorisieren und schützen.

Zur Überprüfung aller Kriterien bieten wir auch Open Source-Tools an. Aber wir lassen den Kunden nicht damit allein und begleiten entsprechend der Bedürfnisse auch in Workshops.


Vertrauensvolle KI und vertrauenswürdige Daten spielen eine zentrale Rolle auf dem virtuellen und interaktiven IBM Data and AI Forum 2021 am 30. November und 01. Dezember.

Hier können Sie sich für den Event registrieren.


Diese 5 Kriterien assoziiere ich tatsächlich alle mit Vertrauen und klingen erstmal plausibel. Doch wann sind sie objektiv erfüllt? Wann ist ein Modell zum Beispiel fair? Das ist zunächst ein subjektiver, qualitativer Wert. Lässt sich das messen?

Dafür gibt es keinen fixen Maßstab oder jenen einen Punkt, an dem das Tool zum Schluss kommt: „das ist fair“. Vielmehr kann man anhand von Methoden herausfinden, wo Fehler in der Programmierung und auch im Denkansatz sind. Ein Beispiel: Ich trainiere eine KI nur mit Bildern von schwarzen Katzen. Dann kann es keine Weißen erkennt. Das Tool spiegelt mir deshalb: „hey, du hast nur schwarze Katzen trainiert. Versuche hier diverser zu werden, damit das System auch andere erkennen kann.“  Hier ist also auch der Mensch gefragt. Darum verfolgen wir in den Workshops auch einen diversen Teamansatz.

Insbesondere Explainability (XAI) schlüsselt ja den Algorithmus auf, bzw. erklärt, welche Kriterien für das Ergebnis ausschlaggebend waren. Nun steht die Kritik im Raum, XAI sei bei einer Black Box technisch gar nicht möglich. Stimmt das?

Nun, es ist schwierig, aber man kann ein Modell erklären und es durchaus erklärbar machen. Wenn ein Auto gegen eine Masse von Menschen fährt, dann suchen wir ja auch nach Gründen und der Mensch muss sich erklären. Was ist passiert, warum machst du das? Wir versuchen herauszufinden, was die Motivation war: War es Absicht oder Versehen? Wir fragen ebenfalls nach Handlungssträngen. Und genauso muss ich erklären können, was meine AI gemacht hat. Es geht durchaus.

Mittlerweile sind Algorithmen ja sehr häufig Teil von Geschäftsmodellen. Gebe ich damit nicht mein Geschäftsgeheimnis preis? 

Diese Sorge kann ich nachvollziehen. Aber ich muss mich als Unternehmen ja nicht Gott und der Welt erklären. Sondern Nachweise haben, falls etwas passiert. Wie bei Verträgen oder Dokumenten auch, die wir aufbewahren müssen. Es geht also nicht darum, der Konkurrenz meinen Algorithmus aufzuzeigen – das wäre ja absurd – sondern um eine Protokollierung meiner AI. 

Trotzdem verstehe ich die Unsicherheit. Weil das ganze Umfeld relativ neu ist und vielleicht auch Angst besteht, dass es in die falschen Hände gelangt. Aber das Problem habe ich auch mit den Data Scientists, die das Modell kennen. Ihnen muss ich auch vertrauen.

Nun scheitern Projekte schon auch mal an Datensilos. Deswegen taucht mit AI auch immer häufiger die Forderung nach mehr Kollaboration auf. Wie kann vertrauensvolle KI das vorantreiben?

Sehr stark. Wir als IBM sind hierfür ja selbst ein Beispiel. Wir bauen stark auf Kooperationen – auch in Bereichen, in denen wir mit der Konkurrenz zusammen arbeiten. Warum? Nun, am Ende geht es darum, dem Kunden die bestmögliche Kooperation zu bieten. Und wenn der Kunde im Fokus steht, dann tritt Konkurrenz in den Hintergrund. Denn ich sollte mich ja fragen: Was muss ich tun, damit es für den Kunden funktioniert?

Es kann aber auch für ein Unternehmen selbst sehr sinnvoll sein, Kooperationen einzugehen. Ein Beispiel ist die „Applied AI Initiative“ mit der wir zusammen arbeiten, um AI im deutschen und europäischen Markt voranzubringen. Wir alle kennen Gruppendynamik ja aus der Pädagogik. Aber bei Unternehmen ist das nichts anderes. Am Ende des Tages ist vieles erst durch die Zusammenarbeit möglich. Klar, manchmal ist es auch eine Reise, auf die man sich begibt, und man muss den Führungsstil dafür ändern. Aber Kooperationen sind zukunftsweisend. Und vertrauensvolle KI ist hierbei wegweisend.

Um damit zu deiner Eingangsfrage zurückzukommen: Wir alle sollten ethische Fragen rund um AI zum Hauptthema machen. Denn nachher wünschten wir, wir hätten das von Anfang an bereits getan. Ich habe damit sehr gute Erfahrungen gemacht und bin bei Kunden auf sehr viel Offenheit für das Thema gestoßen.


Über die Autorin

Katrin-Cécile Ziegler ist Tech-Journalistin und Digital-Ökonomin. Sie lehrt als Dozentin für Digitale Ethik an der Hochschule für Wirtschaft Zürich (HWZ) und an der Hochschule für Umwelt und Wirtschaft Nürtingen. 2019 wurde sie zur Botschafterin der European Digital Society (Brüssel) für Deutschland ernannt. Als Keynote-Speakerin und Moderatorin spricht sie zu Themen rund um Digitalisierung und zählt auf LinkedIn über 12.500 Follower:innen.


Vertrauensvolle KI und vertrauenswürdige Daten spielen eine zentrale Rolle auf dem virtuellen und interaktiven IBM Data and AI Forum 2021 am 30. November und 01. Dezember.

Hier können Sie sich für den Event registrieren.



More stories
By Alina Looß on September 27, 2022

2. Human Friendly Automation Day

KI-basierte Automatisierung ist in aller Munde. Was dabei jedoch oft zu kurz kommt, ist der Blick auf den Menschen und die Auswirkungen, die mit der Automatisierung einhergehen. Die Initiative Human Friendly Automation widmet sich dieser Herausforderung und schafft die Grundlage für eine faire, nachhaltige, globale digitale Wirtschaft.

Weiterlesen

Jetzt hochschalten, ins Metaverse: wie Automobilhersteller die Chancen virtueller Räume nutzen können

Das Metaverse dehnt sich aus – ob Gaming-, Luxus-Mode- oder Möbelhersteller, immer mehr Marken schicken sich an, in die neue (Vermarktungs-)Dimension vorzudringen. Auch für Automobilunternehmen hält sie starke Chancen bereit. Was können sie jetzt tun, um die neuen virtuellen Räume zu nutzen? Digital Natives rücken mehr und mehr in die Entscheiderrollen auf den Märkten. Mit […]

Weiterlesen

By BFM InnoLab on September 7, 2022

BIRD and IReF: A paradigm shift in regulatory reporting

Introduction The regulations of national, European and international supervisors are constantly changed and expanded: additional information is required, requirements change, and reporting structures have to be modified. The European System of Central Banks (ESCB) has a long-term objective to improve the consistency of data collection from banks in order to reduce the reporting burden on […]

Weiterlesen