Was ist KI-Bias?
erkunden IBM ® watsonx.governance
Nahaufnahme der Augen, die auf den Betrachter blicken

Mitwirkender: James Holdsworth

Datum: 22.12.23

Was ist KI-Bias?

KI-Bias, auch maschinelles Lernen-Bias oder Algorithmus-Bias genannt, bezieht sich auf das Auftreten voreingenommener Ergebnisse aufgrund menschlicher Vorurteile, die die ursprünglichen Trainingsdaten oder den KI-Algorithmus verzerren – was zu verzerrten Ergebnissen und potenziell schädlichen Ergebnissen führt.

Wenn KI-Vorurteile nicht angegangen werden, kann dies Auswirkungen auf den Erfolg eines Unternehmens haben und die Fähigkeit der Menschen beeinträchtigen, an Wirtschaft und Gesellschaft teilzunehmen. Bias verringert die Genauigkeit der KI und damit ihr Potenzial.

Es ist weniger wahrscheinlich, dass Unternehmen von Systemen profitieren, die verzerrte Ergebnisse liefern. Und Skandale aufgrund von KI-Voreingenommenheit könnten Misstrauen bei farbigen Menschen, Frauen, Menschen mit Behinderungen, der LGBTQ-Community oder anderen Randgruppen schüren.

Die Modelle, auf denen die KI-Bemühungen basieren, absorbieren die Vorurteile der Gesellschaft, die sich stillschweigend in den Bergen von Daten verbergen können, auf denen sie trainiert werden. Eine historisch voreingenommene Datenerfassung, die gesellschaftliche Ungleichheit widerspiegelt, kann historisch marginalisierten Gruppen im Anwendungsfall schaden, einschließlich Einstellung, Polizeiarbeit, Kreditwürdigkeitsprüfung und vielen anderen.  Das Wall Street Journal schreibt: „Da der Einsatz künstlicher Intelligenz immer weiter verbreitet wird, kämpfen Unternehmen immer noch darum, der allgegenwärtigen Voreingenommenheit entgegenzuwirken.“1

Machen Sie eine Tour durch IBM ® watsonx.governance

Beschleunigen Sie einen verantwortungsvollen, transparenten und erklärbaren KI-Workflow.

Verwandte Inhalte

Abonnieren Sie den IBM-Newsletter

Beispiele aus der Praxis und Risiken 

Wenn KI aufgrund von Voreingenommenheit einen Fehler macht – beispielsweise wenn Gruppen von Menschen Chancen verweigert werden, sie auf Fotos falsch identifiziert oder unfair bestraft werden –, erleidet das verletzende Unternehmen Schaden an seiner Marke und seinem Ruf. Gleichzeitig können die Menschen in diesen Gruppen und die Gesellschaft als Ganzes Schaden anrichten, ohne es überhaupt zu merken. Hier sind einige prominente Beispiele für Ungleichheiten und Voreingenommenheit in der KI und den Schaden, den sie verursachen können.

Im Gesundheitswesen kann eine Unterrepräsentation von Daten von Frauen oder Minderheitengruppen prädiktive KI-Algorithmen verzerren.2 Beispielsweise wurde festgestellt, dass computergestützte Diagnosesysteme (CAD) bei afroamerikanischen Patienten eine geringere Genauigkeit der Ergebnisse liefern als bei weißen Patienten.

Während KI-Tools die Automatisierung des Scannens von Lebensläufen während einer Suche rationalisieren können, um die Identifizierung idealer Kandidaten zu unterstützen, können die angeforderten Informationen und die herausgefilterten Antworten zu unverhältnismäßigen Ergebnissen in den Gruppen führen. Wenn zum Beispiel in einer Stellenanzeige das Wort "Ninja" verwendet wird, kann es sein, dass sie mehr Männer als Frauen anzieht, obwohl dies in keiner Weise eine Jobanforderung ist.3   

Als Test für die Bildgenerierung forderte Bloomberg die Erstellung von mehr als 5.000 KI-Bildern und stellte fest: „Laut Stable Diffusion wird die Welt von weißen männlichen CEOs geführt.“ Frauen sind selten Ärztinnen, Anwältinnen oder Richterinnen. Männer mit dunkler Hautfarbe begehen Verbrechen, während Frauen mit dunkler Haut Burger wenden."4  Midjourney führte eine ähnliche Studie zur KI-Kunstgenerierung durch und forderte Bilder von Menschen in spezialisierten Berufen an. Die Ergebnisse zeigten sowohl jüngere als auch ältere Menschen, aber die älteren Menschen waren immer Männer, was die geschlechtsspezifische Voreingenommenheit in Bezug auf die Rolle der Frauen am Arbeitsplatz verstärkte.5 

KI-gestützte Predictive-Policing-Instrumente, die von einigen Unternehmen im Strafrechtssystem eingesetzt werden, sollen Bereiche identifizieren, in denen Kriminalität wahrscheinlich ist. Sie stützen sich jedoch häufig auf historische Verhaftungsdaten, die bestehende Muster des Racial Profiling und der unverhältnismäßigen Verfolgung von Minderheiten verstärken können.6

Quellen der Verzerrung 

Verzerrte Ergebnisse können Unternehmen und der Gesellschaft insgesamt schaden. Hier sind einige der häufigsten Arten von KI-Voreingenommenheit7

  • Algorithmus-Bias: Fehlinformationen können zu Ergebnissen führen, wenn das Problem oder die gestellte Frage nicht vollständig richtig oder spezifisch ist oder wenn das Feedback an den Algorithmus des maschinellen Lernens nicht bei der Suche nach einer Lösung hilft. 

  • Kognitive Voreingenommenheit: KI-Technologie erfordert menschliche Eingaben und Menschen sind fehlbar. Persönliche Vorurteile können einsickern, ohne dass die Praktizierenden es überhaupt merken. Dies kann sich entweder auf das Dataset- oder das Modellverhalten auswirken. 
     

  • Bestätigungsverzerrung: Dies hängt eng mit der kognitiven Verzerrung zusammen und tritt auf, wenn sich die KI zu sehr auf bereits bestehende Überzeugungen oder Trends in den Daten verlässt, indem sie bestehende Verzerrungen verdoppelt und neue Muster oder Trends nicht erkennen kann. 
     

  • Ausschlussverzerrung: Diese Art von Verzerrung tritt auf, wenn wichtige Daten aus den verwendeten Daten ausgelassen werden, oft weil der Entwickler neue und wichtige Faktoren nicht erkannt hat. 
     

  • Messfehler: Die Messverzerrung wird durch unvollständige Daten verursacht. Dies ist in den meisten Fällen ein Versehen oder eine mangelnde Vorbereitung, sodass die Ergebnisse im Datensatz nicht die gesamte Bevölkerung einschließen, die berücksichtigt werden sollte. Wenn zum Beispiel eine Hochschule die Faktoren für einen erfolgreichen Abschluss vorhersagen wollte, aber nur Absolventen einbeziehen würde, würden die Antworten die Faktoren, die dazu führen, dass einige abbrechen, völlig übersehen. 
     

  • Verzerrung der Homogenität außerhalb der Gruppe: Hier geht es darum, nicht zu wissen, was man nicht weiß. Es besteht die Tendenz, dass Menschen ein besseres Verständnis für Ingroup-Mitglieder haben – die Gruppe, zu der man gehört – und sie sind aus Sicht des Denkens vielfältiger als Outgroup-Mitglieder. Die Ergebnisse können Entwickler sein, die Algorithmen erstellen, die weniger in der Lage sind, zwischen Personen zu unterscheiden, die in den Trainingsdaten nicht zur Mehrheitsgruppe gehören, was zu rassistischer Voreingenommenheit, Fehlklassifizierung und falschen Antworten führt. 

  • Voreingenommenheit: Tritt auf, wenn Stereotypen und fehlerhafte gesellschaftliche Annahmen in den Datensatz des Algorithmus gelangen, was unweigerlich zu voreingenommenen Ergebnissen führt. Beispielsweise könnte KI Ergebnisse liefern, die zeigen, dass nur Männer Ärzte und alle Krankenschwestern Frauen sind. 
     

  • Erinnerungsverzerrung: Dieser entsteht bei der Datenkennzeichnung, bei der die Beschriftungen durch subjektive Beobachtungen inkonsistent angewendet werden.  
     

  • Stichproben-/Auswahlverzerrung: Dies ist ein Problem, wenn die zum Modell des maschinellen Lernens verwendeten Daten nicht groß genug, nicht repräsentativ genug oder zu unvollständig sind, um das System ausreichend zu trainieren, schulen. Wenn alle für trainieren, schulen und KI-Modelle konsultierten Schullehrer über die gleichen akademischen Qualifikationen verfügen, müssten alle künftigen Lehrer, die in Betracht gezogen werden, über identische akademische Qualifikationen verfügen. 
     

  • Stereotypisierungsverzerrung: Dies geschieht, wenn ein KI-System – meist unbeabsichtigt – schädliche Stereotypen verstärkt. Zum Beispiel könnte ein Sprachübersetzungssystem einige Sprachen mit bestimmten Geschlechtern oder ethnischen Stereotypen verknüpfen. McKinsey warnt vor dem Versuch, Vorurteile aus Datensätzen zu beseitigen: „Ein naiver Approach besteht darin, geschützte Klassen (wie Geschlecht oder Rasse) aus Daten zu entfernen und die Etiketten zu löschen, die den Algorithmus voreingenommen machen.“ Dennoch funktioniert dieser Approach möglicherweise nicht, da entfernte Beschriftungen das Verständnis des Modells beeinträchtigen und die Genauigkeit Ihrer Ergebnisse möglicherweise schlechter werden könnte.“8

Grundsätze zur Vermeidung von Verzerrungen 

Der erste Schritt zur Vermeidung der Voreingenommenheitsfalle besteht darin, einen Schritt zurückzutreten und über eine KI-Anstrengung nachzudenken. Wie bei fast jeder geschäftlichen Herausforderung ist es viel einfacher, Probleme im Voraus zu beheben, als auf das Training oder die Schulung zu warten und dann die beschädigten Ergebnisse durchzusehen. Aber viele Unternehmen sind in Eile: Sie sind dumm, was den Cent angeht, und es kostet sie viel Geld. 

Das Erkennen und Beheben von Voreingenommenheiten in der KI erfordert KI-Governance oder die Fähigkeit, die KI-Aktivitäten eines Unternehmens zu steuern, zu verwalten und zu überwachen. In der Praxis schafft die KI-Governance eine Reihe von Richtlinien, Praktiken und Rahmenbedingungen, um die verantwortungsvolle Entwicklung und Nutzung der KI-Technologie zu leiten. Wenn es gut gemacht wird, trägt KI-Governance dazu bei, sicherzustellen, dass ein ausgewogenes Verhältnis von Vorteil und Nutzen für Unternehmen, Kunden, Mitarbeiter und die Gesellschaft als Ganzes entsteht.

KI-Governance umfasst häufig Methoden, die auf die Bewertung von Fairness, Gerechtigkeit und Inklusion abzielen. Ein Ansatz wie die kontrafaktische Fairness identifiziert Verzerrungen bei der Entscheidungsfindung eines Modells und sorgt für gerechte Ergebnisse, selbst wenn sensible Attribute wie Geschlecht, Rasse oder sexuelle Orientierung einbezogen werden.

 Aufgrund der Komplexität der KI kann ein Algorithmus ein Blackbox-System sein, das wenig Einblick in die Daten hat, die zu seiner Erstellung verwendet wurden. Transparenzpraktiken und Technologie tragen dazu bei, sicherzustellen, dass zum Aufbau des Systems unvoreingenommene Daten verwendet werden und dass die Ergebnisse fair sind. Unternehmen, die sich für den Schutz der Kundeninformationen einsetzen, bauen Markenvertrauen auf und entwickeln mit größerer Wahrscheinlichkeit vertrauenswürdige KI-Systeme.

Um eine weitere Ebene der Qualitätssicherung zu bieten, führen Sie ein "Human-in-the-Loop"-System ein, um Optionen anzubieten oder Empfehlungen abzugeben, die dann durch menschliche Entscheidungen genehmigt werden können.

So vermeiden Sie Vorurteile

Hier ist eine Checkliste mit sechs Prozessschritten, die KI-Programme frei von Vorurteilen halten können.

1. Wählen Sie das richtige Lernmodell aus:

  • Bei Verwendung eines überwachten Modells wählt der Stakeholder die Trainingsdaten aus. Es ist von entscheidender Bedeutung, dass das Stakeholder-Team vielfältig ist – nicht nur aus Datenwissenschaftlern – und dass sie eine Schulung erhalten haben, um unbewusste Voreingenommenheit zu verhindern.  
  • Unbeaufsichtigte Modelle verwenden allein KI, um Verzerrungen zu identifizieren. Es müssen Werkzeuge zur Verhinderung von Verzerrungen in das neuronale Netz eingebaut werden, damit es lernt, zu erkennen, was voreingenommen ist.

2. Trainieren, Schulen mit den richtigen Daten: Maschinelles Lernen, das auf den falschen Daten trainiert wird, führt zu falschen Ergebnissen. Alle Daten, die in die KI eingespeist werden, sollten vollständig und ausgewogen sein, um die tatsächlichen demografischen Merkmale der betrachteten Gruppe nachzubilden.     

3. Wählen Sie ein ausgewogenes Team: Je vielfältiger das KI-Team ist – in Bezug auf Rasse, Wirtschaft, Bildungsniveau, Geschlecht und Berufsbezeichnung – desto wahrscheinlicher ist es, dass es Voreingenommenheit erkennt. Zu den Talenten und Standpunkten eines gut ausgebildeten KI-Teams sollten KI-Geschäftsinnovatoren, KI-Entwickler, KI-Implementierer und eine Vertretung der Verbraucher dieser speziellen KI-Bemühungen gehören.9  

4. Führen Sie die Datenverarbeitung achtsam durch: Unternehmen müssen sich bei jedem Schritt der Datenverarbeitung der Voreingenommenheit bewusst sein. Das Risiko besteht nicht nur in der Datenauswahl: Ob während der Vorverarbeitung, während der Verarbeitung oder nach der Verarbeitung, es kann sich jederzeit eine Verzerrung einschleichen und in die KI eingespeist werden.  

5. Kontinuierliche Überwachung: Kein Modell ist jemals vollständig oder dauerhaft. Kontinuierliche Überwachung und Tests mit realen Daten aus dem gesamten Unternehmen können dazu beitragen, Vorurteile zu erkennen und zu korrigieren, bevor sie Schaden anrichten. Um Voreingenommenheit weiter zu vermeiden, sollten Unternehmen die Bewertung durch ein unabhängiges Team innerhalb des Unternehmens oder einen vertrauenswürdigen Dritten in Betracht ziehen.  

6. Vermeiden Sie infrastrukturelle Probleme: Abgesehen von menschlichen und datenbezogenen Einflüssen kann manchmal die Infrastruktur selbst zu Verzerrungen führen. Mithilfe von Daten, die von mechanischen Sensoren erfasst werden, könnte beispielsweise das Equipment selbst eine Vorspannung erzeugen, wenn die Sensoren nicht richtig funktionieren. Diese Art von Voreingenommenheit kann schwer zu erkennen sein und erfordert Investitionen in die neuesten digitalen und technologischen Infrastrukturen.

Verwandte Lösungen
IBM KI-Lösungen

Operationalisieren Sie KI in Ihrem gesamten Unternehmen, um schnell und ethisch Vorteile und Nutzen zu erzielen. Unser umfangreiches Portfolio an KI-Produkten und Analyze-Lösungen für Unternehmen ist darauf ausgelegt, die Hürden bei der KI-Einführung zu verringern, die richtige Datengrundlage zu schaffen und gleichzeitig Ergebnisse und eine verantwortungsvolle Nutzung zu optimieren.

erkunden KI-Lösungen
Master Data Management

Fördern Sie schnellere Erkenntnisse, indem Sie einen umfassenden Überblick über die Daten und Beziehungen einer Entität im gesamten Data Fabricdes Unternehmens liefern

erkunden Datenverwaltungstools

Ressourcen Vertrauen, Transparenz und Governance in der KI

Erkunden Sie in dieser Folge der AI Academy <asset name> Themen wie KI-Halluzination, Voreingenommenheit und Risiko, und erfahren Sie, wie die Anwendung von KI-Ethik und -Governance Vertrauen schafft.

Erstellen Sie einen verantwortungsvollen KI-Workflow mit KI-Governance

Erfahren Sie in diesem E-Book mehr über KI-Governance für verantwortungsvolle, transparente und erklärbare Arbeitsabläufe.

Beleuchten Sie die KI-Voreingenommenheit anhand von Beispielen aus der Praxis

Da Unternehmen zunehmend KI einsetzen, fragen sich die Menschen, inwieweit menschliche Vorurteile Einzug in KI-Systeme gehalten haben.

Machen Sie den nächsten Schritt

Erste Schritte mit Ihrer Governance-Strategie und gehören Sie zu den Ersten, die watsonx.governance ausprobieren. Die allgemeine Verfügbarkeit wird für Dezember erwartet.

erkunden IBM ® watsonx.governance
Fußnoten

1 The Wall Street Journal: Der Aufstieg der KI rückt Bias in Algorithmen ins Rampenlicht

2 Booz Allen Hamilton: Künstliche Intelligenz im Gesundheitswesen

3 LinkedIn: KI-Voreingenommenheit reduzieren – Ein Leitfaden für HR-Führungskräfte

4 Bloomberg: Menschen sind voreingenommen. generative KI ist noch schlimmer

5 Das Gespräch USA: Altersdiskriminierung, Sexismus, Klassismus und mehr – 7 Beispiele für Voreingenommenheit in KI-generierten Bildern

6 Technologie Review: Predictive Policing ist immer noch rassistisch – ganz gleich, welche Daten dabei verwendet werden

7 Tech-Ziel: Maschinelles Lernen-Bias (KI-Bias)
     KI-Hub der Chapman University: Voreingenommenheit in der KI    
     AIMultiple: Bias in der KI – Was es ist, Typen, Beispiele und 6 Möglichkeiten, es im Jahr 2023 zu beheben

8 McKinsey: Bekämpfung von Vorurteilen in der künstlichen Intelligenz (und beim Menschen)

9 Forbes: Das Problem mit voreingenommenen KIs (und wie man KI besser macht)