Mein IBM Anmelden Abonnieren

Was ist KI-Verzerrung?

22. Dezember 2023

Autoren

James Holdsworth

Content Writer

Was ist KI-Verzerrung?

KI-Verzerrung, auch Verzerrung beim maschinellen Lernen oder Algorithmusverzerrung genannt, bezieht sich auf das Auftreten von voreingenommenen Ergebnissen aufgrund menschlicher Voreingenommenheit, welche die ursprünglichen Trainingsdaten oder den KI-Algorithmus verzerrt - was wiederum zu verzerrten Ergebnissen und potenziell schädlichen Resultaten führt.

Wenn KI-Verzerrungen nicht korrigiert werden, können sie den Erfolg eines Unternehmens beeinträchtigen und Menschen die Teilhabe an der Wirtschaft und Gesellschaft erschweren. Verzerrungen verringern die Genauigkeit von KI und damit ihr Potenzial.

Die Wahrscheinlichkeit, dass Unternehmen von Systemen mit verzerrten Ergebnissen profitieren, ist gering. Und Skandale, die auf KI-bedingte Voreingenommenheit zurückzuführen sind, könnten das Misstrauen bestimmter ethnischer Gruppen, Frauen, Menschen mit Behinderungen, der LGBTQ-Gemeinschaft oder anderer marginalisierter Gruppen schüren.

Die Modelle, auf denen KI-Bemühungen basieren, nehmen die Vorurteile der Gesellschaft auf, die in den Unmengen von Daten, auf denen sie trainiert werden, unbemerkt eingebettet sein können.Historisch voreingenommene Datenerhebungen, die gesellschaftliche Ungleichheiten widerspiegeln, können historisch marginalisierten Gruppen in Anwendungsfällen wie Personaleinstellung, Polizeiarbeit, Kreditwürdigkeitsprüfung und vielen anderen zum Nachteil gereichen. Das Wall Street Journal schreibt: „Während der Einsatz von künstlicher Intelligenz immer weiter verbreitet wird, kämpfen Unternehmen immer noch damit, gegen die weit verbreitete Voreingenommenheit anzugehen. “1

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Beispiele und Risiken aus der Praxis

Wenn KI aufgrund von Verzerrungen einen Fehler macht (z. B. wenn Personengruppen benachteiligt, auf Fotos falsch identifiziert oder ungerecht bestraft werden), schadet das der Marke und dem Ruf des Unternehmens. Gleichzeitig können die Menschen in diesen Gruppen und die Gesellschaft als Ganzes Schaden nehmen, ohne es zu merken. Im Folgenden werden einige bekannte Beispiele für Ungleichheiten und Voreingenommenheit in der KI und den Schaden, den sie verursachen können, vorgestellt.

Im Gesundheitswesen können unterrepräsentierte Daten von Frauen oder Minderheitengruppen können prädiktive KI-Algorithmen verzerren.2 So hat sich beispielsweise herausgestellt, dass computergestützte Diagnosesysteme (CAD) bei afroamerikanischen Patienten weniger genaue Ergebnisse liefern als bei weißen Patienten.

Zwar können KI-Tools die automatische Überprüfung von Lebensläufen bei der Suche nach idealen Kandidaten vereinfachen, aber die abgefragten Informationen und die ausgeschlossenen Antworten können zu unverhältnismäßigen Ergebnissen für verschiedene Gruppen führen. Wenn in einer Stellenanzeige beispielsweise das Wort „Ninja“ vorkommt, werden möglicherweise mehr Männer als Frauen angezogen, obwohl das in keiner Weise eine Stellenanforderung ist.3

Als Test für die Bilderzeugung ließ Bloomberg mehr als 5.000 KI-Bilder erstellen und stellte fest: „Die Welt wird laut Stable Diffusion von weißen männlichen CEOs regiert. Frauen sind selten Ärzte, Anwälte oder Richter. Männer mit dunkler Hautfarbe begehen Verbrechen, während Frauen mit dunkler Haut Burger braten.“4. Midjourney führte eine ähnliche Studie über die KI-Kunstgeneration durch und bat um Bilder von Menschen in speziellen Berufen. Das Ergebnis zeigte sowohl jüngere als auch ältere Menschen, aber die älteren Menschen waren immer Männer, was die geschlechtsspezifische Voreingenommenheit gegenüber der Rolle der Frau am Arbeitsplatz noch verstärkt.5 

KI-gestützte Predictive-Policing-Tools, die von einigen Einrichtungen des Strafjustizsystems eingesetzt werden, sollen Bereiche identifizieren, in denen Straftaten wahrscheinlich auftreten werden. Sie stützen sich jedoch häufig auf historische Verhaftungsdaten, was bestehende Muster des „Racial Profiling“ und der unverhältnismäßigen Ausrichtung auf Minderheitengemeinschaften verstärken kann.6

AI Academy

Vertrauen, Transparenz und Governance in der KI

KI-Vertrauen ist zweifelsohne das wichtigste Thema in der KI. Es ist verständlicherweise auch ein überwältigendes Thema. Wir werden uns mit Problemen wie Halluzinationen, Voreingenommenheit und Risiken auseinandersetzen und Schritte für eine ethische, verantwortungsvolle und faire Einführung von KI aufzeigen.

Ursachen von Verzerrung

Verzerrte Ergebnisse können Unternehmen und der Gesellschaft im Allgemeinen schaden. Hier sind einige der häufigsten Arten von KI-Verzerrungen7.

  • Algorithmusverzerrung: Fehlinformationen können entstehen, wenn das Problem oder die gestellte Frage nicht ganz korrekt oder spezifisch ist oder wenn das Feedback an den Algorithmus für maschinelles Lernen nicht zur Lösungsfindung beiträgt.

  • Kognitive Voreingenommenheit: KI-Technologie erfordert menschlichen Input, und Menschen sind fehlbar. Persönliche Voreingenommenheit kann sich einschleichen, ohne dass die Anwender es bemerken. Dies kann sich entweder auf den Datensatz oder das Verhalten des Modells auswirken.

  • Konfirmationsverzerrung: Eng verwandt mit der kognitiven Voreingenommenheit ist dies der Fall, wenn sich die KI zu sehr auf bereits bestehende Überzeugungen oder Trends in den Daten verlässt - und so bestehende Vorurteile verdoppelt und nicht in der Lage ist, neue Muster oder Trends zu erkennen.
  • Ausschlussverzerrung: Diese Art von Verzerrung tritt auf, wenn wichtige Daten aus den verwendeten Daten ausgelassen werden, oft weil die Entwickler neue und wichtige Faktoren nicht erkannt haben.

  • Messverzerrung: Eine Messverzerrung wird durch unvollständige Daten verursacht. Meistens handelt es sich dabei um ein Versehen oder einen Mangel an Vorbereitung, der dazu führt, dass der Datensatz nicht die gesamte zu berücksichtigende Grundgesamtheit enthält. Wenn zum Beispiel eine Hochschule die Faktoren für einen erfolgreichen Abschluss vorhersagen wollen würde, aber nur die Absolventen einbeziehen würde, dann würden bei den Antworten die Faktoren, die einige zum Studienabbruch veranlassen, völlig fehlen.
  • Outgroup-Homogenitätsverzerrung: Dies ist ein Fall von Unwissenheit über das, was man nicht weiß. Menschen neigen dazu, die Mitglieder der Ingroup - der Gruppe, zu der sie gehören – besser zu verstehen und zu glauben, dass sie vielfältiger sind als die Mitglieder der Outgroup. Dies kann bei der Entwicklung von Algorithmen dazu führen, dass diese schlechter zwischen Personen unterscheiden können, die nicht zur Mehrheitsgruppe in den Trainingsdaten gehören. Und das kann wiederum zu rassistischen Verzerrungen, Fehlklassifizierungen und falschen Antworten führen.

  • Vorurteilsverzerrung: Tritt auf, wenn Stereotypen und fehlerhafte gesellschaftliche Annahmen ihren Weg in den Datensatz des Algorithmus finden, was unweigerlich zu verzerrten Ergebnissen führt. So könnte die KI beispielsweise Ergebnisse liefern, die zeigen, dass nur Männer Ärzte sind und alle Krankenschwestern weiblich sind.

  • Erinnerungsverzerrung: Dies tritt bei der Datenkennzeichnung auf, bei der Beschriftungen durch subjektive Beobachtungen uneinheitlich angewendet werden.

  • Stichproben-/Selektionsverzerrung: Dies ist ein Problem, wenn die zum Trainieren des maschinellen Lernmodells verwendeten Daten nicht groß genug, nicht repräsentativ genug oder zu unvollständig sind, um das System ausreichend zu trainieren. Wenn alle Lehrer, die für das Training eines KI-Modells herangezogen werden, die gleichen akademischen Qualifikationen haben, dann müssen auch alle zukünftigen Lehrer die gleichen akademischen Qualifikationen haben.

  • Stereotypisierende Verzerrung: Dies geschieht, wenn ein KI-System – in der Regel unbeabsichtigt – schädliche Stereotypen verstärkt. Ein Sprachübersetzungssystem könnte zum Beispiel einige Sprachen mit bestimmten Geschlechtern oder ethnischen Stereotypen assoziieren. McKinsey warnt vor dem Versuch, Vorurteile aus Datensätzen zu entfernen: „Ein naiver Ansatz besteht darin, geschützte Klassen (wie Geschlecht oder Ethnie) aus den Daten zu entfernen und die Bezeichnungen zu löschen, die den Algorithmus voreingenommen machen. Dieser Ansatz funktioniert jedoch möglicherweise nicht, da die entfernten Bezeichnungen das Verständnis des Modells beeinträchtigen und die Genauigkeit Ihrer Ergebnisse verschlechtern können.“8

Grundsätze zur Vermeidung von Verzerrung

Der erste Schritt, um die Verzerrungsfalle zu vermeiden, besteht darin, zu Beginn einen Schritt zurückzutreten und über eine KI-Anwendung nachzudenken. Wie bei fast allen geschäftlichen Herausforderungen ist es viel einfacher, die Probleme im Vorfeld zu lösen, als auf die Katastrophe zu warten und dann den Schaden zu beseitigen. Aber viele Unternehmen haben es eilig, was sie teuer zu stehen kommen kann.

Die Identifizierung und Bekämpfung von Verzerrungen in der KI erfordert eine KI-Governance, d. h. der Fähigkeit, die KI-Aktivitäten eines Unternehmens zu steuern, zu verwalten und zu überwachen.In der Praxis schafft die KI-Governance eine Reihe von Richtlinien, Praktiken und Rahmenbedingungen, die die verantwortungsvolle Entwicklung und Nutzung von KI-Technologien leiten.Wenn KI-Governance gut gemacht wird, sorgt sie dafür, dass Unternehmen, Kunden, Mitarbeiter und die Gesellschaft insgesamt gleichermaßen davon profitieren.

KI-Governance umfasst oft Methoden, die darauf abzielen, Fairness, Gerechtigkeit und Inklusion zu bewerten. Ansätze wie die kontrafaktische Fairness identifizieren Voreingenommenheit in den Entscheidungen eines Modells und gewährleisten gerechte Ergebnisse, selbst wenn sensible Merkmale wie Geschlecht, ethnische Herkunft oder sexuelle Orientierung geändert werden.

Aufgrund der Komplexität von KI kann ein Algorithmus ein Black-Box-System sein, bei dem nur wenig Einblick in die Daten besteht, die zu seiner Erstellung verwendet wurden. Transparenzpraktiken und -technologien tragen dazu bei, dass bei der Entwicklung des Systems unvoreingenommene Daten verwendet werden und die Ergebnisse fair sind. Unternehmen, die sich für den Schutz der Kundendaten einsetzen, schaffen Vertrauen in ihre Marke und sind eher in der Lage, vertrauenswürdige KI-Systeme zu entwickeln.

Um eine weitere Ebene der Qualitätssicherung zu schaffen, sollten Sie ein „Human-in-the-Loop“-System einrichten, das Optionen anbietet oder Empfehlungen ausspricht, die dann durch menschliche Entscheidungen genehmigt werden können.

So vermeiden Sie Verzerrungen

Hier ist eine Checkliste von sechs Prozessschritten, die KI-Programme frei von Verzerrung halten können.

1. Auswahl des richtiges Lernmodells:

  • Wenn Sie ein überwachtes Modell verwenden, wählen die Beteiligten die Trainingsdaten aus. Es ist wichtig, dass das Stakeholder-Team vielfältig ist (also nicht nur aus Datenwissenschaftlern bestehen sollte) und dass es geschult wurde, um unbewusste Vorurteile zu vermeiden.
  • Unbeaufsichtigte Modelle verwenden ausschließlich KI, um Verzerrungen zu erkennen. In die Neural Networks müssen Tools zur Verzerrungsprävention integriert werden, damit es lernt, was voreingenommen ist.

2. Trainieren mit den richtigen Daten: Maschinelles Lernen, das mit den falschen Daten trainiert wurde, führt zu falschen Ergebnissen. Welche Daten auch immer in die KI einfließen, sie sollten vollständig und ausgewogen sein, um die tatsächliche demografische Zusammensetzung der betrachteten Gruppe zu replizieren.

3. Zusammenstellung eines ausgewogenen Teams: Je vielfältiger das KI-Team ist (in Bezug auf ethnischer Zugehörigkeit, wirtschaftliche Lage, Bildungsstand, Geschlecht und Berufsbeschreibung), desto wahrscheinlicher ist es, dass es Voreingenommenheit erkennt. Die Talente und Sichtweisen in einem gut abgerundeten KI-Team sollten KI-Innovatoren, KI-Entwickler, KI-Implementierer und eine Vertretung der Verbraucher dieses speziellen KI-Projekts umfassen.9

4. Bewusste Durchführung der Datenverarbeitung: Unternehmen müssen sich bei jedem Schritt der Datenverarbeitung über Verzerrungen im Klaren sein. Das Risiko liegt nicht nur in der Datenauswahl: Ob bei der Vorverarbeitung, der Verarbeitung oder der Nachverarbeitung, an jedem Punkt können sich Verzerrungen einschleichen und in die KI einfließen.

5. Kontinuierliche Überwachung: Kein Modell ist jemals vollständig oder dauerhaft. Laufende Überwachung und Tests mit realen Daten aus dem gesamten Unternehmen können zur Aufdeckung und Korrektur von Verzerrungen beitragen, bevor sie Schaden anrichten. Zur weiteren Vermeidung von Verzerrungen sollten Unternehmen Bewertungen durch ein unabhängiges Team innerhalb des Unternehmens oder einen vertrauenswürdigen Dritten in Betracht ziehen.

6. Vermeiden Sie Infrastrukturprobleme: Abgesehen von menschlichen Einflüssen und Dateneinflüssen kann die Infrastruktur selbst manchmal zu Verzerrungen führen. Wenn zum Beispiel Daten von mechanischen Sensoren verwendet werden, könnte das Equipment selbst Verzerrung erzeugen, wenn die Sensoren nicht richtig funktionieren. Diese Art von Verzerrung kann schwer zu erkennen sein und erfordert Investitionen in die neuesten digitalen und technologischen Infrastrukturen.

Weiterführende Lösungen

Weiterführende Lösungen

IBM watsonx.governance

Verwalten Sie generative KI-Modelle ortsunabhängig und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.

Entdecken sie watsonx.governance
Beratungsleistungen zur KI-Governance

Bereiten Sie sich auf das EU-Gesetz zur KI vor und etablieren Sie mithilfe von IBM Consulting einen verantwortungsvollen KI-Governance-Ansatz.

KI-Governance-Dienste erkunden
IBM OpenPages®

Vereinfachen Sie die Verwaltung von Risiken und die Einhaltung gesetzlicher Vorschriften mit einer einheitlichen GRC-Plattform.

OpenPages entdecken
Machen Sie den nächsten Schritt

Steuern, verwalten und überwachen Sie Ihre KI mit einem einzigen Portfolio, um verantwortungsvolle, transparente und erklärbare KI voranzubringen.

watsonx.governance erkunden Buchen Sie eine Live-Demo
Fußnoten

1 The Wall Street Journal: Rise of AI Puts Spotlight on Bias in Algorithms

2 Booz Allen Hamilton: Artificial Intelligence Bias in Healthcare

3 LinkedIn: Reducing AI Bias – A Guide for HR Leaders

4 Bloomberg: Humans Are Biased. Generative AI Is Even Worse

5 The Conversation US: Ageism, sexism, classism and more – 7 examples of bias in AI-generated images

6 Technology Review: Predictive policing is still racist – whatever data it uses

7 Tech Target: Machine learning bias (AI bias)
 Chapman University AI Hub: Bias in AI 
 AIMultiple: Bias in AI – What it is, Types, Examples & 6 Ways to Fix it in 2023

8 McKinsey: Tackling bias in artificial intelligence (and in humans)

9 Forbes: The Problem With Biased AIs (and How To Make AI Better)