AI権利章典とは

手を使って画面にタッチするイメージ

共同執筆者

Tom Krantz

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

AI権利章典とは

AI権利章典は、AIの時代における米国人の公民権の保護を支援するために米国政府が発行したフレームワークです。

AI権利章典は、2022年10月に米国科学技術政策局(OSTP)によって、「Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People(AI権利章典の青写真:自動化システムをアメリカ国民のために活用する)」という文書の中で導入されました。青写真とも呼ばれるAI権利章典は、さまざまな学術機関、人権団体、非営利団体、民間セクターの企業と協議した後、作成されました。

AI権利章典は、市民権を保護し、自動化システムの導入とガバナンスにおける民主的価値を促進する政策と慣行の策定を支援することを意図しています。これを達成するために、青写真では、アルゴリズムによる差別などの潜在的なリスクを軽減するための5つの原則を定めています。また、医療、金融サービスなどの分野にAIをデプロイすることで生じる可能性のある重要なリソースやサービスに対するアクセスの問題にも対処します。

AI権利章典は、AIシステムの設計、使用、デプロイメントの指針となる5つの基本原則で構成されています。発言の自由、投票権、プライバシーなどの人々の公民権が危険にさらされ得るさまざまな状況を考慮し、各原則において具体的な考慮事項が定められています。

青写真は拘束力がなく、基本原則の遵守を義務付けていませんが、既存の法律やポリシーではまだガイダンスが提供されていないAI関連のポリシー決定に関して、情報提供することを目的としています。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

AI権利章典が適用されるAIシステム

AI権利章典は、自動化されたシステムが、アメリカ国民の権利、機会、または重要なリソースやサービスへのアクセスに重大な影響を与える可能性がある場合に適用されます。AI権利章典の対象となりうる自動化システムの種類には、以下に影響を与える可能性のあるものが含まれますが、これらに限定されません。

公民権、自由、プライバシー:これには、音声関連システム(自動コンテンツ・モデレーション・ツールなど)、監視および刑事司法システムのアルゴリズム(自動ナンバープレート・リーダーなど)、投票関連システム(署名照合ツールなど)、プライバシーに影響する可能性のあるシステム(広告ターゲティングシステムなど)が含まれます。

機会均等:これには、教育関連システム(たとえば、剽窃検出ソフトウェア)、住宅関連システム(たとえば、入居審査アルゴリズム)、雇用関連システム(たとえば、雇用や解雇のアルゴリズム)が含まれます。

重要なリソースとサービスへのアクセス:これには、医療および健康保険テクノロジー(AI支援診断ツールなど)金融システムのアルゴリズム(信用スコアリング・システムなど)、地域社会の安全に影響を与えるシステム(電力網の制御など)、福利厚生やサービスへのアクセス、または罰則の適用に関連するシステム(不正アクセス検知アルゴリズムなど)が含まれます。

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

AI権利章典が重要な理由

機械学習(ML)や自然言語処理(NLP)などのテクノロジーがより洗練されるにつれて、AIの使用事例は増加しています。アーンスト・アンド・ヤング社の調査によると、回答者の90%が職場でAIを使用していると答えています。1しかし、AIの広範な普及は、透明性バイアスデータのプライバシーに関連する新たな倫理的課題ももたらします。その例として、以下のようなことがあります。

  • 法執行機関で使用される顔認識ソフトウェア(FRS)には、バイアスが含まれる傾向があります。研究者らは、人工知能による誤認識がすでに何件か確認されており、そのほとんどは黒人が関与しており、誤って告発されています。2

  • AIのハルシネーションは、自動化されたシステムがパターンを誤って認識し、無意味または不正確な応答を生成するときに発生します。ある例では、研究者がChatGPTに、2つの病気の病因に関する情報の提供を求めました。AIは、引用とPubMed IDを記載した包括的な論文を提供しました。事実確認の結果、研究者は論文が捏造されたものであり、IDは他の論文から流用されたものであることを発見しました。3

  • IBMが経営幹部を対象に実施した調査によると、現在、生成AIプロジェクトのうち、取り組みを保護するコンポーネントを備えているのはわずか24%です。実際、回答者の70%近くが、セキュリティーよりもイノベーションが優先されると回答しています。

これらの課題に取り組むために、AI開発者には、AIの責任ある使用を中心に構築されたガイドと倫理的なフレームワークが必要です。責任あるAI は、AIの設計、開発、デプロイメント、利用の指針として使用される一連の原則です。AIシステムがより広範な社会に与える影響と、AIを利害関係者の価値観や法的基準、倫理原則に適合させるために必要な措置を考慮します。

青写真は、社会が人々の基本的な市民権を損なうことなくAIツールの可能性を最大限に活用できるように、責任あるAIのベスト・プラクティスを包括的なフレームワークにおいて規定することを目指しています。

AI権利章典の5つの原則

AI権利章典は、アメリカ国民の公民権を念頭に置いて設計された5つの原則で構成されています。5つの原則には次のようなものがあります。

  • 安全で効果的なシステム
  • アルゴリズムによる差別からの保護
  • データ・プライバシー
  • 通知と説明
  • 人による代替、考慮事項、フォールバック

安全で効果的なシステム

この原則は、人々は「安全性や有効性に欠けるAIシステムから保護されるべき」としています。この原則に沿って青写真では、開発者が多様なコミュニティー、利害関係者、分野の専門家と協力してAIシステムのリスクを検討することを推奨しています。この原則では、安全性と有効性を向上させるために、システムに対して導入前テスト、リスクの特定軽減、継続的な監視を行うことも推奨されています。青写真によると、システムの安全性と有効性を確認する独立した評価および報告の結果は、可能な限り公開される必要があります。

アルゴリズムによる差別からの保護

この原則は、人々は「アルゴリズムによる差別を受けるべきではなく、システムは公平な方法で使用および設計されるべき」であるとしています。AI権利章典によると、アルゴリズムによる差別は、自動化されたシステムが、人種、性的指向、障害の有無、その他の法律で保護されている特性に基づいて人々に悪影響を与える場合に発生します。これを改善するために、この原則は、自動システムの作成者が公平性アセスメント、代表的なデータ、格差テストなどの対策を講じて、高リスクの個人やコミュニティーを保護することを提案しています。この原則は、独立した第三者による監査も推奨しています。

データ・プライバシー

この原則では、人々は「組み込まれた保護機能により、データの悪用から保護されるべき」であり、「(自分に)関するデータの使用方法に対して権限を持つべき」であると論じられています。この原則に沿って青写真では、個人情報(PII)の収集が絶対に必要である場合に徹底されるような設計をAI開発者が選択することでユーザーとそのプライバシーを保護することを提案しています。この原則では、作成者が許可と同意の要求を簡潔かつ分かりやすいものにし、データの使用、アクセス、転送、削除に関する決定を尊重することも提案されています。

仕事、健康、刑事司法などに関する機密情報については、より高度な保護と制限が必要です。青写真はまた、監視テクノロジーは市民のプライバシーと市民的自由を守るために監督を強化すべきであるとしています。

通知と説明

この原則は、ユーザーは「自動化されたシステムが使用されていることを認識し、それが(自分に)影響する結果にどのように、そしてなぜ寄与するのかを理解すべき」であると定めるものです。AI権利章典では、自動化システムの設計者、開発者、導入者は、システムの機能や自動化が果たす役割などを説明する際に、わかりやすい言葉を使うべきであると規定されています。さらに、この原則には、自動化されたシステムでは使用時に通知が表示され、その使用が個人に影響を与える結果にどのように、なぜ貢献するのかが明示されるべきであるという提案も盛り込まれています。

人による代替、考慮事項、フォールバック

この原則は、人々が「必要に応じてオプトアウトでき、(強化された)発生した問題について迅速に検討して解決できる人にアクセスできるようにするべき」であると述べています。青写真によると、「適切である」かどうかは、特定の文脈における「合理的な期待」に基づいて決められるべきであり、広範なアクセス可能性と潜在的な危害に対する保護を確保することに重点を置く必要があります。この原則に準拠しようとする人々は、特に自動システムが障害を起こしたり、エラーが発生したり、あるいは誰かがその影響について主張したい場合には、フォールバックおよびエスカレーションプロセスを通じた人間による検討と修復について、アクセスしやすい状態を確保し、タイムリーに行うことを推奨しています。

「原則から実践へ」

技術的な付属書である「From Principles to Practice(原則から実践へ)」も青写真と並行して発行されました。ここでは、政府、各業界、コミュニティーが5つの原則を政策、実践、または自動化システムの技術設計に組み込むために実行できる例と手順を示しています。

AI権利章典(AIBill of Rights)とその技術的な付属書は、各原則が重要である理由、自動化システムに期待すべきこと、各原則をどのように行動に転換できるかを説明します。記載されている例は、批判や支持ではなく、組織が自社のAIオペレーションと意思決定に安全対策を組み込むよう啓発することを目的としています。

AI権利章典が与えた影響

ワシントンDCで発表されたAI権利章典は、いくつかの連邦政府機関に、AIの責任ある使用に関するガイドラインの採用を啓発する一因だったかもしれません。この記事を書いている時点で、商務省(DOC)や米国国立標準技術研究所(NIST)を含む12の米政府機関が、法律、政策、国家安全保障においてもAI要件を有しています。

2023年10月30日、バイデン政権は、安全、セキュア、信頼できるAIのための新しい基準を確立するための大統領令を発令しました。半年後に発表されたプレスリリースで、DOCは大統領令を実施するためのいくつかの計画を発表しました。4

州レベルでは、政策立案者は新しい法律を一部青写真に照らして決定しているようです。2021年、ニューヨーク州はAIテクノロジーが採用プロセスに使用される際の通知など、雇用主に対する要件を定めた法律を採択しました。いくつかの州では現在、法執行機関における顔認識テクノロジーの使用に関する要件が定められています。そして最近、カリフォルニア州公民権評議会(California Civil Rights Council)は、FEHAをAI権利章典とさらに整合させる公正雇用住宅法(FEHA)の改訂を提案しました。

米国以外では、本稿執筆時点で34の国または地域が全国的なAI戦略を策定しています。特に注目すべきは、欧州連合の人工知能法(EU AI法)が、EUにおけるAIの開発や使用を規制していることです。EU AI法は、規制にリスクベースのアプローチを採用しており、AIがもたらすリスクに応じてさまざまなルールを適用しています。

AI権利章典は既存の政策とどのように影響し合うのか

AI権利章典で提案されている保護の一部は、既に米国憲法で義務付けられているか、現行の米国法に存在しています。たとえば、「データ・プライバシー」の原則に記載されている官公庁・自治体の監視は、すでに法的要件と司法監督の対象となっており、また、米国民を差別から保護するための公民権法も存在します。

青写真が準拠している他のAI標準の例には、次のようなものがあります。

  • 経済協力開発機構(OECD)が2019年に行った人工知能に関する理事会勧告。これには、米国が採択した信頼できるAIの責任ある管理に関する原則が含まれています。

  • 連邦政府における信頼できる人工知能の使用促進に関する大統領令(第13960号)。これは、連邦政府によるAIの使用を規定する原則です。

  • 連邦政府による人種的平等と十分なサービスを受けられない地域社会への支援の推進に関する大統領令(第13985号)。

AI権利章典に記載されている保護を確実に実施するために、新しい政策と慣行が採択される可能性があります。青写真は、場合によっては、既存の法律の遵守、特定のユースケースの実用性との適合、または競合する公共の利益のバランスを取るために、原則の例外が必要になる可能性があることを認めています。たとえば、法執行機関やその他の政府機関は、AI権利章典に記載されているガイドラインに従うことが奨励されています。ただし、人々の権利とプライバシーを保護するためには、代替の方法が必要になる場合があります。

今後、世界各国が責任あるAIに対してより包括的なアプローチを採用していく中で、AI権利章典は次の政策の波に影響を与える重要な役割を果たすかもしれません。

関連ソリューション
IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンス・ソリューション

AIガバナンスが、どのように従業員のAIに対する信頼向上や、導入とイノベーションの加速、顧客からの信頼向上に役立つかをご覧ください。

AIガバナンス・ソリューションの詳細はこちら
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモの予約
脚注

1 How organizations can stop skyrocketing AI use from fueling anxiety、アーンスト・アンド・ヤング社、2023年12月。

Artificial Intelligence is Putting Innocent People at Risk of Being Incarcerated、イノセンス・プロジェクト、Sanford、2024年2月14日。

Artificial Hallucinations in ChatGPT: Implications in Scientific Writing、米国立医学図書館、Muacevic、Adler、2023年2月19日。

Department of Commerce Announces New Actions to Implement President Biden’s Executive Order on AI、米国商務省、2024年4月29日。

A cluster analysis of national AI Strategies、Brookings、Denford、Dawson、Desouza、2023年12月13日。