Die „AI Bill of Rights“ ist ein von der Regierung der Vereinigten Staaten veröffentlichtes Framework, das dazu beitragen soll, die Bürgerrechte der Amerikaner im Zeitalter der künstlichen Intelligenz (KI) zu schützen.
Die „AI Bill of Rights“ wurde im Oktober 2022 vom White House Office of Science and Technology Policy (OSTP) in einem Dokument mit dem Titel „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“ vorgestellt. Die auch als „Blueprint“ bezeichnete „AI Bill of Rights“ wurde nach Beratungen mit verschiedenen Akademikern, Menschenrechtsgruppen, gemeinnützigen Organisationen und Unternehmen des privaten Sektors erstellt.
Die „AI Bill of Rights“ soll die Entwicklung von Richtlinien und Praktiken unterstützen, die Bürgerrechte schützen und demokratische Werte bei der Einführung und Steuerung automatisierter Systeme fördern. Um dies zu erreichen, legt der Blueprint fünf Grundsätze fest, um potenzielle Risiken wie algorithmische Diskriminierung zu mindern. Es befasst sich auch mit Fragen des Zugangs zu kritischen Ressourcen oder Services, die sich aus dem Einsatz von KI in Bereichen wie Gesundheitswesen, Finanzdienstleistungen und mehr ergeben können.
Die „AI Bill of Rights“ besteht aus fünf Kernprinzipien, die als Leitfaden für die Gestaltung, Nutzung und den Einsatz von KI-Systemen dienen sollen. Zu jedem Grundsatz werden spezifische Überlegungen angestellt, die verschiedene Situationen berücksichtigen, in denen die Bürgerrechte von Menschen – wie ihre Redefreiheit, ihr Wahlrecht oder ihre Privatsphäre – gefährdet sein können.
Der Blueprint ist zwar nicht verbindlich und schreibt auch nicht die Einhaltung der Kernprinzipien vor, soll aber bei politischen Entscheidungen im Zusammenhang mit KI als Informationsquelle dienen, wenn geltende Gesetze oder Richtlinien noch keine Orientierungshilfe bieten.
Die „AI Bill of Rights“ gilt für automatisierte Systeme, wenn diese das Potenzial haben, die Rechte, Möglichkeiten oder den Zugang der amerikanischen Bevölkerung zu kritischen Ressourcen oder Services wesentlich zu beeinflussen. Zu den Arten von automatisierten Systemen, die potenziell in den Geltungsbereich der AI Bill of Rights fallen, gehören unter anderem solche, die sich auf Folgendes auswirken können:
Bürgerrechte, Freiheiten und Privatsphäre: Dies umfasst sprachbezogene Systeme (z. B. automatisierte Tools zur Moderation von Inhalten), Algorithmen für das Überwachungs- und Strafrechtssystem (z. B. automatisierte Kennzeichenleser), wahlbezogene Systeme (z. B. Tools zum Abgleich von Unterschriften) und Systeme mit potenziellen Auswirkungen auf die Privatsphäre (z. B. Ad-Targeting-Systeme).
Chancengleichheit: Dies umfasst bildungsbezogene Systeme (z. B. Software zur Erkennung von Plagiaten), wohnungsbezogene Systeme (z. B. Algorithmen zur Überprüfung von Mietern) und beschäftigungsbezogene Systeme (z. B. Algorithmen für Einstellungen oder Kündigungen).
Zugang zu kritischen Ressourcen und Services: Dazu gehören Technologien für das Gesundheitswesen und die Krankenversicherung (z. B. KI-gestützte Diagnosetools), Algorithmen für das Finanzsystem (z. B. Bonitätsbewertungssysteme), Systeme, die sich auf die Sicherheit von Gemeinschaften auswirken (z. B. Stromnetzsteuerungen), und Systeme im Zusammenhang mit dem Zugang zu Leistungen oder Services oder der Verhängung von Strafen (z. B. Algorithmen zur Betrugserkennung).
Die Zahl der KI-Anwendungsfälle nimmt zu, da Technologien wie maschinelles Lernen (ML) und Verarbeitung natürlicher Sprache (NLP) immer ausgefeilter werden. In einer Studie von Ernst and Young gaben 90 % der Befragten an, dass sie bei der Arbeit KI einsetzen.1 Die weit verbreitete Einführung von KI bringt jedoch auch neue ethische Herausforderungen im Zusammenhang mit Transparenz, Verzerrung und Datenschutz. Beispielsweise:
Um diese Herausforderungen zu bewältigen, benötigen KI-Entwickler Leitlinien und ethische Frameworks, die auf dem verantwortungsvollen Einsatz von KI basieren. Verantwortungsvolle KI ist eine Reihe von Grundsätzen, die als Leitlinie für die Gestaltung, Entwicklung, Bereitstellung und Nutzung von KI dienen. Die Studie untersucht die breiteren gesellschaftlichen Auswirkungen von KI-Systemen und die erforderlichen Maßnahmen, um KI mit den Werten der Stakeholder, rechtlichen Standards und ethischen Grundsätzen in Einklang zu bringen.
Ziel des Blueprints ist es, verantwortungsvolle KI Best Practices in einem umfassenden Framework festzulegen, damit die Gesellschaft das volle Potenzial von KI-Tools ausschöpfen kann, ohne die grundlegenden Bürgerrechte der Menschen zu beeinträchtigen.
Die „AI Bill of Rights“ besteht aus fünf Grundsätzen, die mit Blick auf die Bürgerrechte der amerikanischen Öffentlichkeit entwickelt wurden. Zu den fünf Grundsätzen gehören:
Dieser Grundsatz besagt, dass Menschen „vor unsicheren oder ineffektiven KI-Systemen geschützt werden sollten“. Um diesem Prinzip gerecht zu werden, schlägt der Blueprint vor, dass Entwickler mit verschiedenen Gemeinschaften, Stakeholdern und Fachleuten zusammenarbeiten, um die Risiken eines KI-Systems zu berücksichtigen. Das Prinzip besagt auch, dass Systeme vor dem Einsatz Tests, Risikoidentifizierung und Risikominderung sowie einer fortlaufenden Überwachung unterzogen werden, um die Sicherheit und Wirksamkeit zu verbessern. Laut dem Blueprint sollten die Ergebnisse unabhängiger Bewertungen und Berichte, die bestätigen, dass das System sicher und wirksam ist, nach Möglichkeit veröffentlicht werden.
Dieser Grundsatz besagt, dass Menschen „nicht durch Algorithmen diskriminiert werden sollten und dass Systeme auf gerechte Weise genutzt und gestaltet werden sollten.“ Gemäß der „AI Bill of Rights“ liegt algorithmische Diskriminierung vor, wenn automatisierte Systeme Menschen aufgrund von Merkmalen wie Rasse, sexueller Orientierung, Behinderung und anderen gesetzlich geschützten Merkmalen benachteiligen. Um dies zu beheben, schlägt der Grundsatz vor, dass die Entwickler automatisierter Systeme Maßnahmen wie Gleichheitsbewertungen, repräsentative Daten und Ungleichheitstests anwenden, um Personen und Gemeinschaften mit hohem Risiko zu schützen. Der Grundsatz beinhaltet auch unabhängige Prüfungen durch Dritte.
Dieser Grundsatz besagt, dass Menschen „durch integrierte Schutzmaßnahmen vor missbräuchlichen Datenpraktiken geschützt werden sollten“ und „die Kontrolle darüber haben sollten, wie Daten über [sie] verwendet werden“. Um diesem Grundsatz zu entsprechen, schlägt der Blueprint vor, dass KI-Entwickler die Benutzer und ihre Privatsphäre durch Designentscheidungen schützen, die dazu beitragen, dass die Erfassung personenbezogener Daten (PII) unbedingt erforderlich ist. Der Grundsatz besagt auch, dass die Urheber Genehmigungs- und Einwilligungsanfragen kurz und verständlich halten und Entscheidungen in Bezug auf Datennutzung, -zugriff, -übertragung und -löschung respektieren.
Für sensible Informationen, wie z. B. in den Bereichen Arbeit, Gesundheit, Strafrecht usw., sind erweiterte Schutzmaßnahmen und Einschränkungen erforderlich. Der Blueprint sieht auch vor, dass die Technologie einer verstärkten Aufsicht unterliegen sollte, um die Privatsphäre und die bürgerlichen Freiheiten der Bürger zu schützen.
Dieser Grundsatz besagt, dass die Menschen „wissen sollten, dass ein automatisiertes System verwendet wird, und verstehen sollten, wie und warum es zu Ergebnissen beiträgt, die [sie] betreffen“. Die „AI Bill of Rights“ besagt, dass Designer, Entwickler und Anwender automatisierter Systeme eine einfache, zugängliche Sprache verwenden sollten, um unter anderem die Funktion des Systems und die Rolle der Automatisierung zu erklären. Darüber hinaus besagt der Grundsatz, dass automatisierte Systeme bei Verwendung eine Benachrichtigung anzeigen und klare Erklärungen dazu liefern sollten, wie und warum sie zu Ergebnissen beitragen, die sich auf Einzelpersonen auswirken.
In diesem Grundsatz heißt es, dass Menschen „gegebenenfalls die Möglichkeit haben sollten, sich abzumelden, und Zugang zu einer Person haben sollten, die Probleme, auf die [sie] stoßen, schnell prüfen und beheben kann.“ Gemäß dem Blueprint sollte die Bestimmung dessen, was „angemessen“ ist, auf „vernünftigen Erwartungen“ im spezifischen Kontext basieren und sich auf die Gewährleistung eines breiten Zugangs und den Schutz vor potenziellen Schäden konzentrieren. Es wird empfohlen, dass diejenigen, die sich an diesem Grundsatz orientieren möchten, menschliche Rücksichtnahme und Abhilfe durch einen Rückfall- und Eskalationsprozess zugänglich und zeitnah machen sollten, insbesondere wenn ein automatisiertes System ausfällt, einen Fehler produziert oder wenn jemand gegen seine Auswirkungen Einspruch einlegen möchte.
Zusammen mit dem Blueprint wurde ein technischer Leitfaden mit dem Titel „Von den Grundsätzen zur Praxis“ veröffentlicht. Er enthält Beispiele und Schritte, die Regierungen, Unternehmen und Gemeinden unternehmen können, um die fünf Grundsätze in die Politik, Praxis oder das technische Design automatisierter Systeme einzubetten.
Zusammen erklären die „AI Bill of Rights“ und ihr Begleitdokument, warum die einzelnen Grundsätze wichtig sind, was von automatisierten Systemen erwartet werden sollte und wie jeder Grundsatz in die Praxis umgesetzt werden kann. Die aufgeführten Beispiele sind weder Kritik noch Befürwortung, sondern sollen Unternehmen dazu anregen, Sicherheitsvorkehrungen in ihre eigenen KI-Abläufe und Entscheidungsprozesse zu integrieren.
Nach ihrer Veröffentlichung in Washington D.C. könnte die „AI Bill of Rights“ einige Bundesbehörden dazu inspiriert haben, Richtlinien für ihren eigenen verantwortungsvollen Umgang mit KI zu verabschieden. Zum Zeitpunkt der Abfassung dieses Artikels haben 12 US-Regierungsbehörden – darunter das Handelsministerium (DOC) und das National Institute of Standards and Technology (NIST) – KI-Anforderungen, die sich auf Recht, Politik und nationale Sicherheit erstrecken.
Am 30. Oktober 2023 erließ die Biden-Regierung eine Durchführungsverordnung zur Festlegung neuer Standards für eine sichere und vertrauenswürdige KI. In einer sechs Monate später veröffentlichten Pressemitteilung kündigte das DOC mehrere Pläne zur Umsetzung der Durchführungsverordnung an.4
Auf bundesstaatlicher Ebene scheinen die Entscheidungsträger die neue Gesetzgebung in gewisser Weise an den Blueprint anzupassen. Im Jahr 2021 verabschiedete New York ein Gesetz, das Arbeitgeber dazu verpflichtet, den Einsatz von KI-Technologien im Einstellungsverfahren zu melden. In mehreren Bundesstaaten gelten inzwischen Anforderungen für den Einsatz von Gesichtserkennungstechnologie im Rahmen der Strafverfolgung. Und vor kurzem hat der California Civil Rights Council Änderungen am Fair Employment and Housing Act (FEHA) vorgeschlagen, die den FEHA weiter an die AI Bill of Rights angleichen.
Außerhalb der Vereinigten Staaten haben zum Zeitpunkt der Erstellung dieses Artikels 34 Länder nationale KI-Strategien festgelegt.5 Insbesondere regelt das Gesetz über künstliche Intelligenz der Europäischen Union (EU-KI-Gesetz) die Entwicklung oder Nutzung von KI in der EU. Das Gesetz verfolgt einen risikobasierten Regulierungsansatz, bei dem je nach Risiko unterschiedliche Regeln für KI gelten.
Einige der in der „AI Bill of Rights“ vorgeschlagenen Schutzmaßnahmen sind bereits in der US-Verfassung vorgeschrieben oder existieren im Rahmen der geltenden US-Gesetze. So unterliegt beispielsweise die im Grundsatz „Datenschutz“ erwähnte staatliche Überwachung bereits gesetzlichen Anforderungen und der gerichtlichen Aufsicht, während es Bürgerrechtsgesetze gibt, die die amerikanische Bevölkerung vor Diskriminierung schützen.
Beispiele für andere KI-Standards, mit denen der Blueprint übereinstimmt, sind:
Es könnten neue Richtlinien und Praktiken eingeführt werden, um sicherzustellen, dass die in der KI-Grundrechtecharta festgelegten Schutzmaßnahmen umgesetzt werden. Der Blueprint erkennt an, dass in einigen Fällen Ausnahmen von den Grundsätzen erforderlich sein können, um die Einhaltung bestehender Rechtsvorschriften zu gewährleisten, den praktischen Anforderungen eines bestimmten Anwendungsfalls zu entsprechen oder konkurrierende öffentliche Interessen auszugleichen. So werden beispielsweise Strafverfolgungsbehörden und andere Regierungsbehörden dazu angehalten, die in der „AI Bill of Rights“ festgelegten Richtlinien zu befolgen. Um die Rechte und die Privatsphäre der Menschen zu schützen, müssen sie jedoch möglicherweise alternative Methoden anwenden.
Mit Blick auf die Zukunft könnte die AI Bill of Rights eine Schlüsselrolle bei der Beeinflussung der nächsten Welle von Richtlinien spielen, wenn die Nationen der Welt einen ganzheitlicheren Ansatz für verantwortungsvolle KI verfolgen.
Erfahren Sie, wie sich das EU-Gesetz zur KI auf die Wirtschaft auswirken wird, wie Sie sich vorbereiten, wie Sie Risiken mindern können und wie Sie Regulierung und Innovation in Einklang bringen.
Erfahren Sie mehr über die neuen Herausforderungen der generativen KI, die Notwendigkeit der Steuerung von KI- und ML-Modellen und die Schritte zum Aufbau eines vertrauenswürdigen, transparenten und erklärbaren KI-Frameworks.
Erfahren Sie, wie Sie mit einem Portfolio von KI-Produkten für generative KI-Modelle ethische und gesetzeskonforme Praktiken fördern.
Gewinnen Sie mit watsonx.governance ein tieferes Verständnis dafür, wie Sie Fairness gewährleisten, Drifts verwalten, die Qualität aufrechterhalten und die Erklärbarkeit verbessern können.
Wir haben 2.000 Unternehmen zu ihren KI-Initiativen befragt, um herauszufinden, was funktioniert, was nicht und wie Sie vorankommen können.
Erfahren Sie, wie Sie das für Ihren Anwendungsfall am besten geeignete KI Foundation Model auswählen.
Verwalten Sie generative KI-Modelle ortsunabhängig und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.
Bereiten Sie sich auf das EU-Gesetz zur KI vor und etablieren Sie mithilfe von IBM Consulting einen verantwortungsvollen KI-Governance-Ansatz.
Vereinfachen Sie die Verwaltung von Risiken und die Einhaltung gesetzlicher Vorschriften mit einer einheitlichen GRC-Plattform.
1 How organizations can stop skyrocketing AI use from fueling anxiety, Ernst & Young, Dezember 2023.
2 Artificial Intelligence is Putting Innocent People at Risk of Being Incarcerated, Innocence Project, Sanford, 14. Februar 2024.
3 Artificial Hallucinations in ChatGPT: Implications in Scientific Writing, National Library of Medicine, Muacevic, Adler, 19. Februar 2023.
4 Department of Commerce Announces New Actions to Implement President Biden’s Executive Order on AI, US Department of Commerce, 29. April 2024.
5 A cluster analysis of national AI Strategies, Brookings, Denford, Dawson, Desouza, 13. Dezember 2023.