KI-Verzerrungen anhand von Beispielen aus der realen Welt beleuchten
16. Oktober 2023
Lesedauer: 6 Minuten

Da Unternehmen immer häufiger künstliche Intelligenz (KI) einsetzen, fragen sich die Menschen, inwieweit menschliche Vorurteile in KI-Systeme eingeflossen sind. Beispiele für KI-Voreingenommenheit in der realen Welt zeigen uns, dass diskriminierende Daten und Algorithmen, die in KI-Modelle integriert werden, zu einer systematischen Voreingenommenheit der Modelle führen und die daraus resultierenden negativen Auswirkungen verstärken.

Unternehmen sind motiviert, sich den Herausforderung von Verzerrungen in der KI zu stellen, nicht nur um Fairness zu erreichen, sondern auch um bessere Ergebnisse zu erzielen. Doch ebenso wie sich systemische rassistische und geschlechtsspezifische Vorurteile in der realen Welt nur schwer beseitigen lassen, ist es auch keine leichte Aufgabe, Vorurteile in der KI zu eliminieren.

In dem Artikel What AI can and can’t do (yet) for your business (Was kann KI für Ihr Unternehmen tun und was (noch) nicht) betonen die Autoren Michael Chui, James Manyika und Mehdi Miremadi von McKinsey: „Solche Verzerrungen haben die Tendenz, eingebettet zu bleiben, da das Erkennen und das Ergreifen von Maßnahmen zu ihrer Beseitigung eine tiefgreifende Beherrschung von Data-Science-Techniken sowie ein besseres Verständnis der bestehenden sozialen Kräfte, einschließlich der Datensammlung, erfordert. Insgesamt erweist sich das Debiasing [der Prozess des Auflösens dieser Verzerrungen] als eines der größten Hindernisse und sicherlich als das bisher sozial brisanteste.“

Beispiele für KI-Verzerrungen aus dem wirklichen Leben bieten Unternehmen nützliche Einblicke, wie sie Verzerrungen erkennen und bekämpfen können. Durch eine kritische Betrachtung dieser Beispiele und der Erfolge bei der Überwindung von Verzerrungen können Data Scientists beginnen, eine Roadmap für die Identifizierung und Vermeidung von Verzerrungen in ihren maschinellen Lernmodellen zu erstellen.

Was ist Verzerrung in künstlicher Intelligenz?

KI-Verzerrungen, auch als Verzerrungen beim maschinellen Lernen oder Algorithmus-Verzerrungen bezeichnet, bezieht sich auf KI-Systeme, die voreingenommene Ergebnisse liefern, die menschliche Verzerrungen innerhalb einer Gesellschaft widerspiegeln und aufrechterhalten, einschließlich historischer und aktueller sozialer Ungleichheit. Verzerrungen finden sich in den anfänglichen Trainingsdaten, dem Algorithmus oder den Vorhersagen, die der Algorithmus generiert.

Wenn Verzerrungen nicht angesprochen und angegangen werden, behindern sie die Teilhabe der Menschen an Wirtschaft und Gesellschaft. Sie reduzieren auch das Potenzial von KI. Unternehmen können nicht von Systemen profitieren, die verzerrte Ergebnisse liefern und Misstrauen unter farbigen Menschen, Frauen, Menschen mit Behinderungen, der LGBTQ-Gemeinschaft oder anderen marginalisierten Personengruppen fördern.

Die Quelle der Verzerrung in der KI

Um KI-Verzerrungen zu beseitigen, müssen Datensätze, Algorithmen für maschinelles Lernen und andere Elemente von KI-Systemen genau untersucht werden, um Quellen potenzieller Verzerrungen zu identifizieren.

Verzerrung von Trainingsdaten

KI-Systeme lernen, Entscheidungen auf der Grundlage von Trainingsdaten zu treffen. Daher ist es unerlässlich, Datensätze auf das Vorhandensein von Verzerrungen zu prüfen. Eine Methode besteht darin, die Datenstichprobe auf über- oder unterrepräsentierte Gruppen innerhalb der Trainingsdaten zu überprüfen. Beispielsweise können Trainingsdaten für einen Gesichtserkennungsalgorithmus, der weiße Personen überrepräsentiert, zu Fehlern führen, wenn die Gesichtserkennung für farbige Personen angewendet wird. Ebenso können Sicherheitsdaten, die Informationen aus geografischen Gebieten enthalten, in denen überwiegend Schwarze leben, bei KI-Tools, die von der Polizei eingesetzt werden, zu rassistischen Vorurteilen führen.

Eine Verzerrung kann auch durch die Art und Weise entstehen, wie die Trainingsdaten gekennzeichnet werden. Verzerrte Ergebnisse können auch durch die Art und Weise entstehen, wie die Trainingsdaten gekennzeichnet werden. So könnten beispielsweise KI-Rekrutierungstools, die inkonsistente Kennzeichnungen verwenden oder bestimmte Merkmale ausschließen oder überrepräsentieren, dazu führen, dass qualifizierte Bewerber nicht berücksichtigt werden.

Algorithmische Verzerrung

Die Verwendung fehlerhafter Trainingsdaten kann zu Algorithmen führen, die wiederholt Fehler oder unfaire Ergebnisse liefern oder sogar die den fehlerhaften Daten innewohnende Verzerrung verstärken. Algorithmische Verzerrungen können auch durch Programmierfehler verursacht werden, z. B. wenn ein Entwickler Faktoren bei der Entscheidungsfindung des Algorithmus aufgrund seiner eigenen bewussten oder unbewussten Vorurteile ungerechtfertigt gewichtet. Zum Beispiel könnten Indikatoren wie Einkommen oder Wortschatz vom Algorithmus verwendet werden, um Menschen einer bestimmten Rasse oder eines bestimmten Geschlechts unbeabsichtigt zu diskriminieren.

Kognitive Verzerrung

Wenn Menschen Informationen verarbeiten und Urteile fällen, werden wir unweigerlich von unseren Erfahrungen und Vorlieben beeinflusst. Infolgedessen können Menschen diese Vorurteile durch die Auswahl der Daten oder die Gewichtung der Daten in KI-Systeme integrieren. Zum Beispiel könnte eine kognitive Verzerrung dazu führen, dass Datensätze bevorzugt werden, die von Amerikanern stammen, anstatt Stichproben aus einer Reihe von Bevölkerungsgruppen auf der ganzen Welt zu ziehen.

Laut NIST ist diese Quelle der Verzerrung häufiger, als Sie vielleicht denken. In seinem Bericht Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270) stellt NIST fest, dass „menschliche und systemische institutionelle und gesellschaftliche Faktoren ebenfalls bedeutende Quellen für Verzerrungen in der KI sind und derzeit übersehen werden. Um diese Herausforderung erfolgreich zu meistern, müssen alle Formen von Verzerrungen berücksichtigt werden. Das bedeutet, dass wir unseren Blickwinkel über die Pipeline des maschinellen Lernens hinaus erweitern müssen, um zu erkennen und zu untersuchen, wie diese Technologie sowohl innerhalb unserer Gesellschaft entsteht als auch auf sie einwirkt.“

Beispiele für Verzerrungen durch KI im echten Leben

Da sich die Gesellschaft immer mehr der Funktionsweise von KI und der Möglichkeit von Verzerrungen bewusst wird, haben Unternehmen zahlreiche hochkarätige Beispiele für Verzerrungen in der KI in einer Vielzahl von Anwendungsfällen aufgedeckt.

  • Gesundheitswesen – Unterrepräsentierte Daten von Frauen oder Minderheitengruppen können prädiktive KI-Algorithmen verzerren. So hat sich beispielsweise herausgestellt, dass computergestützte Diagnosesysteme (CAD) bei schwarzen Patienten weniger genaue Ergebnisse liefern als bei weißen Patienten.
  • Bewerber-Tracking-Systeme – Probleme mit Algorithmen zur Verarbeitung natürlicher Sprache können zu verzerrten Ergebnissen in Bewerber-Tracking-Systemen führen. Amazon hat beispielsweise die Verwendung eines Einstellungsalgorithmus eingestellt, nachdem festgestellt wurde, dass dieser Bewerber bevorzugte, die Wörter wie „exekutiert“ oder „gefangen genommen“ enthielten, die häufiger in Lebensläufen von Männern zu finden waren.
  • Online-Werbung – Verzerrungen in den Algorithmen von Suchmaschinenanzeigen können die geschlechtsspezifische Verzerrung bei der Stellenbesetzung verstärken. Eine unabhängige Untersuchung an der Carnegie Mellon University in Pittsburgh ergab, dass das Google Online-Werbesystem Männern häufiger hoch bezahlte Stellen anzeigte als Frauen.
  • Bilderzeugung – Akademische Untersuchungen haben eine Verzerrung in der Anwendung Midjourney festgestellt, die künstliche Intelligenz zur Erstellung von Kunst verwendet. Als sie gebeten wurden, Bilder von Menschen in spezialisierten Berufen zu erstellen, zeigten sie sowohl jüngere als auch ältere Menschen, aber die älteren Menschen waren immer Männer, was die geschlechtsspezifische Verzerrung der Rolle der Frau am Arbeitsplatz verstärkte.
  • Predictive-Policing-ToolsKI-gestützte Predictive-Policing-Tools, die von einigen Einrichtungen des Strafjustizsystems eingesetzt werden, sollen Bereiche identifizieren, in denen Straftaten wahrscheinlich auftreten werden. Sie stützen sich jedoch häufig auf historische Verhaftungsdaten, was bestehende Muster des „Racial Profiling“ und der unverhältnismäßigen Ausrichtung auf Minderheitengemeinschaften verstärken kann.
Reduzierung von Verzerrungen und KI-Governance

Die Identifizierung und Bekämpfung von Verzerrungen in der KI beginnt mit der KI-Governance, d. h. der Fähigkeit, die KI-Aktivitäten eines Unternehmens zu steuern, zu verwalten und zu überwachen. In der Praxis schafft die KI-Governance eine Reihe von Richtlinien, Praktiken und Rahmenbedingungen, die die verantwortungsvolle Entwicklung und Nutzung von KI-Technologien leiten. Wenn KI-Governance gut gemacht wird, sorgt sie dafür, dass Unternehmen, Kunden, Mitarbeiter und die Gesellschaft insgesamt gleichermaßen davon profitieren.

Durch KI-Governance-Richtlinien können Unternehmen die folgenden Praktiken aufbauen:

  • Compliance – KI-Lösungen und KI-bezogene Entscheidungen müssen mit den einschlägigen Branchenvorschriften und gesetzlichen Anforderungen übereinstimmen.
  • Vertrauen – Unternehmen, die sich für den Schutz der Kundendaten einsetzen, schaffen Vertrauen in ihre Marke und sind eher in der Lage, vertrauenswürdige KI-Systeme zu entwickeln.
  • Transparenz – Aufgrund der Komplexität von KI kann ein Algorithmus ein Black-Box-System sein, bei dem nur wenig Einblick in die Daten besteht, die zu seiner Erstellung verwendet wurden. Transparenz trägt dazu bei, dass bei der Entwicklung des Systems unvoreingenommene Daten verwendet werden und die Ergebnisse fair sind.
  • Effizienz – Eines der größten Versprechen der KI ist die Reduzierung der manuellen Arbeit und die Zeitersparnis für die Mitarbeiter. KI sollte so konzipiert sein, dass sie zur Erreichung von Geschäftszielen beiträgt, die Markteinführung beschleunigt und Kosten senkt.
  • Fairness – KI-Governance umfasst oft Methoden, die darauf abzielen, Fairness, Gerechtigkeit und Inklusion zu bewerten. Ansätze wie die kontrafaktische Fairness identifizieren Voreingenommenheit in den Entscheidungen eines Modells und gewährleisten gerechte Ergebnisse, selbst wenn sensible Merkmale wie Geschlecht, Rasse oder sexuelle Orientierung geändert werden.
  • Menschliche Kontrolle – Prozesse wie das „Human-in-the-Loop“-System bieten Optionen oder geben Empfehlungen, die dann von Menschen überprüft werden, bevor eine Entscheidung getroffen wird, um eine weitere Ebene der Qualitätssicherung zu bieten.
  • Verstärkendes Lernen – Diese unbeaufsichtigte Lerntechnik nutzt Belohnungen und Bestrafungen, um einem System das Lernen von Aufgaben beizubringen. McKinsey stellt fest, dass das verstärkende Lernen menschliche Vorurteile überwindet und das Potenzial hat, „bisher ungeahnte Lösungen und Strategien hervorzubringen, an die selbst erfahrene Praktiker vielleicht nie gedacht hätten.“
Verzerrungen, KI und IBM

Für eine wirksame Daten- und KI-Governance-Strategie kann ein geeigneter Technologiemix von entscheidender Bedeutung sein. Eine moderne Datenarchitektur und eine vertrauenswürdige KI-Plattform sind dabei Schlüsselkomponenten. Die Richtlinienorchestrierung innerhalb einer Data-Fabric-Architektur ist ein hervorragendes Tool, das die komplexen KI-Audit-Prozesse vereinfachen kann. Durch die Integration von KI-Audits und verwandten Prozessen in die Governance-Richtlinien Ihrer Datenarchitektur kann Ihr Unternehmen dazu beitragen, ein Verständnis für Bereiche zu erlangen, die eine kontinuierliche Inspektion erfordern.

Bei IBM Consulting unterstützen wir unsere Kunden bei der Einrichtung eines Bewertungsprozesses für Verzerrungen und andere Bereiche. Mit der zunehmenden Einführung von KI und der Weiterentwicklung von Innovationen werden auch die Sicherheitsrichtlinien ausgereift, wie es bei jeder Technologie der Fall ist, die im Laufe der Jahre in die Struktur eines Unternehmens eingebettet wurde. Im Folgenden stellen wir einige Best Practices von IBM vor, die Unternehmen bei der sicheren Bereitstellung von KI in ihren Umgebungen unterstützen sollen:

  1. Nutzen Sie vertrauenswürdige KI, indem Sie die Richtlinien und Praktiken der Anbieter auswerten.
  2. Ermöglichen Sie den sicheren Zugriff auf Benutzer, Modelle und Daten.
  3. Schützen Sie KI-Modelle, -Daten und -Infrastruktur vor feindlichen Angriffen.
  4. Implementieren Sie den Datenschutz in den Trainings-, Test- und Betriebsphasen.
  5. Integrieren Sie Bedrohungsmodellierungen und sichere Codierungspraktiken in den KI-Entwicklungszyklus.
  6. Erkennen Sie Bedrohungen und reagieren Sie auf KI-Anwendungen und -Infrastrukturen.
  7. Bewerten und bestimmen Sie den KI-Reifegrad mithilfe des IBM KI-Frameworks.
 
Autor
IBM Data and AI Team