Da Unternehmen immer häufiger künstliche Intelligenz (KI) einsetzen, fragen sich die Menschen, inwieweit menschliche Vorurteile in KI-Systeme eingeflossen sind. Beispiele für KI-Voreingenommenheit in der realen Welt zeigen uns, dass diskriminierende Daten und Algorithmen, die in KI-Modelle integriert werden, zu einer systematischen Voreingenommenheit der Modelle führen und die daraus resultierenden negativen Auswirkungen verstärken.
Unternehmen sind motiviert, sich den Herausforderung von Verzerrungen in der KI zu stellen, nicht nur um Fairness zu erreichen, sondern auch um bessere Ergebnisse zu erzielen. Doch ebenso wie sich systemische rassistische und geschlechtsspezifische Vorurteile in der realen Welt nur schwer beseitigen lassen, ist es auch keine leichte Aufgabe, Vorurteile in der KI zu eliminieren.
In dem Artikel What AI can and can’t do (yet) for your business (Was kann KI für Ihr Unternehmen tun und was (noch) nicht) betonen die Autoren Michael Chui, James Manyika und Mehdi Miremadi von McKinsey: „Solche Verzerrungen haben die Tendenz, eingebettet zu bleiben, da das Erkennen und das Ergreifen von Maßnahmen zu ihrer Beseitigung eine tiefgreifende Beherrschung von Data-Science-Techniken sowie ein besseres Verständnis der bestehenden sozialen Kräfte, einschließlich der Datensammlung, erfordert. Insgesamt erweist sich das Debiasing [der Prozess des Auflösens dieser Verzerrungen] als eines der größten Hindernisse und sicherlich als das bisher sozial brisanteste.“
Beispiele für KI-Verzerrungen aus dem wirklichen Leben bieten Unternehmen nützliche Einblicke, wie sie Verzerrungen erkennen und bekämpfen können. Durch eine kritische Betrachtung dieser Beispiele und der Erfolge bei der Überwindung von Verzerrungen können Data Scientists beginnen, eine Roadmap für die Identifizierung und Vermeidung von Verzerrungen in ihren maschinellen Lernmodellen zu erstellen.
KI-Verzerrungen, auch als Verzerrungen beim maschinellen Lernen oder Algorithmus-Verzerrungen bezeichnet, bezieht sich auf KI-Systeme, die voreingenommene Ergebnisse liefern, die menschliche Verzerrungen innerhalb einer Gesellschaft widerspiegeln und aufrechterhalten, einschließlich historischer und aktueller sozialer Ungleichheit. Verzerrungen finden sich in den anfänglichen Trainingsdaten, dem Algorithmus oder den Vorhersagen, die der Algorithmus generiert.
Wenn Verzerrungen nicht angesprochen und angegangen werden, behindern sie die Teilhabe der Menschen an Wirtschaft und Gesellschaft. Sie reduzieren auch das Potenzial von KI. Unternehmen können nicht von Systemen profitieren, die verzerrte Ergebnisse liefern und Misstrauen unter farbigen Menschen, Frauen, Menschen mit Behinderungen, der LGBTQ-Gemeinschaft oder anderen marginalisierten Personengruppen fördern.
Um KI-Verzerrungen zu beseitigen, müssen Datensätze, Algorithmen für maschinelles Lernen und andere Elemente von KI-Systemen genau untersucht werden, um Quellen potenzieller Verzerrungen zu identifizieren.
KI-Systeme lernen, Entscheidungen auf der Grundlage von Trainingsdaten zu treffen. Daher ist es unerlässlich, Datensätze auf das Vorhandensein von Verzerrungen zu prüfen. Eine Methode besteht darin, die Datenstichprobe auf über- oder unterrepräsentierte Gruppen innerhalb der Trainingsdaten zu überprüfen. Beispielsweise können Trainingsdaten für einen Gesichtserkennungsalgorithmus, der weiße Personen überrepräsentiert, zu Fehlern führen, wenn die Gesichtserkennung für farbige Personen angewendet wird. Ebenso können Sicherheitsdaten, die Informationen aus geografischen Gebieten enthalten, in denen überwiegend Schwarze leben, bei KI-Tools, die von der Polizei eingesetzt werden, zu rassistischen Vorurteilen führen.
Eine Verzerrung kann auch durch die Art und Weise entstehen, wie die Trainingsdaten gekennzeichnet werden. Verzerrte Ergebnisse können auch durch die Art und Weise entstehen, wie die Trainingsdaten gekennzeichnet werden. So könnten beispielsweise KI-Rekrutierungstools, die inkonsistente Kennzeichnungen verwenden oder bestimmte Merkmale ausschließen oder überrepräsentieren, dazu führen, dass qualifizierte Bewerber nicht berücksichtigt werden.
Die Verwendung fehlerhafter Trainingsdaten kann zu Algorithmen führen, die wiederholt Fehler oder unfaire Ergebnisse liefern oder sogar die den fehlerhaften Daten innewohnende Verzerrung verstärken. Algorithmische Verzerrungen können auch durch Programmierfehler verursacht werden, z. B. wenn ein Entwickler Faktoren bei der Entscheidungsfindung des Algorithmus aufgrund seiner eigenen bewussten oder unbewussten Vorurteile ungerechtfertigt gewichtet. Zum Beispiel könnten Indikatoren wie Einkommen oder Wortschatz vom Algorithmus verwendet werden, um Menschen einer bestimmten Rasse oder eines bestimmten Geschlechts unbeabsichtigt zu diskriminieren.
Wenn Menschen Informationen verarbeiten und Urteile fällen, werden wir unweigerlich von unseren Erfahrungen und Vorlieben beeinflusst. Infolgedessen können Menschen diese Vorurteile durch die Auswahl der Daten oder die Gewichtung der Daten in KI-Systeme integrieren. Zum Beispiel könnte eine kognitive Verzerrung dazu führen, dass Datensätze bevorzugt werden, die von Amerikanern stammen, anstatt Stichproben aus einer Reihe von Bevölkerungsgruppen auf der ganzen Welt zu ziehen.
Laut NIST ist diese Quelle der Verzerrung häufiger, als Sie vielleicht denken. In seinem Bericht Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270) stellt NIST fest, dass „menschliche und systemische institutionelle und gesellschaftliche Faktoren ebenfalls bedeutende Quellen für Verzerrungen in der KI sind und derzeit übersehen werden. Um diese Herausforderung erfolgreich zu meistern, müssen alle Formen von Verzerrungen berücksichtigt werden. Das bedeutet, dass wir unseren Blickwinkel über die Pipeline des maschinellen Lernens hinaus erweitern müssen, um zu erkennen und zu untersuchen, wie diese Technologie sowohl innerhalb unserer Gesellschaft entsteht als auch auf sie einwirkt.“
Da sich die Gesellschaft immer mehr der Funktionsweise von KI und der Möglichkeit von Verzerrungen bewusst wird, haben Unternehmen zahlreiche hochkarätige Beispiele für Verzerrungen in der KI in einer Vielzahl von Anwendungsfällen aufgedeckt.
Die Identifizierung und Bekämpfung von Verzerrungen in der KI beginnt mit der KI-Governance, d. h. der Fähigkeit, die KI-Aktivitäten eines Unternehmens zu steuern, zu verwalten und zu überwachen. In der Praxis schafft die KI-Governance eine Reihe von Richtlinien, Praktiken und Rahmenbedingungen, die die verantwortungsvolle Entwicklung und Nutzung von KI-Technologien leiten. Wenn KI-Governance gut gemacht wird, sorgt sie dafür, dass Unternehmen, Kunden, Mitarbeiter und die Gesellschaft insgesamt gleichermaßen davon profitieren.
Durch KI-Governance-Richtlinien können Unternehmen die folgenden Praktiken aufbauen:
Für eine wirksame Daten- und KI-Governance-Strategie kann ein geeigneter Technologiemix von entscheidender Bedeutung sein. Eine moderne Datenarchitektur und eine vertrauenswürdige KI-Plattform sind dabei Schlüsselkomponenten. Die Richtlinienorchestrierung innerhalb einer Data-Fabric-Architektur ist ein hervorragendes Tool, das die komplexen KI-Audit-Prozesse vereinfachen kann. Durch die Integration von KI-Audits und verwandten Prozessen in die Governance-Richtlinien Ihrer Datenarchitektur kann Ihr Unternehmen dazu beitragen, ein Verständnis für Bereiche zu erlangen, die eine kontinuierliche Inspektion erfordern.
Bei IBM Consulting unterstützen wir unsere Kunden bei der Einrichtung eines Bewertungsprozesses für Verzerrungen und andere Bereiche. Mit der zunehmenden Einführung von KI und der Weiterentwicklung von Innovationen werden auch die Sicherheitsrichtlinien ausgereift, wie es bei jeder Technologie der Fall ist, die im Laufe der Jahre in die Struktur eines Unternehmens eingebettet wurde. Im Folgenden stellen wir einige Best Practices von IBM vor, die Unternehmen bei der sicheren Bereitstellung von KI in ihren Umgebungen unterstützen sollen:
Entdecken Sie, was watson.governance für Sie tun kann