AIガバナンスとは

2024年10月10日

共同執筆者

Tim Mucci

Writer

Gather

Cole Stryker

Editorial Lead, AI Models

Gather

AIガバナンスとは

人工知能(AI) ガバナンスとは、AIシステムとツールが安全かつ倫理的であることを促進するプロセス、標準、ガードレールを指します。AIガバナンス・フレームワークは、AIの研究、開発、応用を指導し、安全性、公平性、人権の尊重を確保するのに役立ちます。

効果的なAIガバナンスには、イノベーションと信頼醸成を促進しながら、バイアス、プライバシー侵害、悪用などのリスクに対処する監視メカニズムが含まれます。AI関連システムが社会の価値観に沿うように開発・使用されることを確実にするため、AIガバナンスに対する倫理的なAI駆動型アプローチには、AI開発者、ユーザー、政策立案者、倫理学者を含む幅広い利害関係者の関与が必要です。

AIガバナンスは、AIの開発と保守における人為的な問題に対処します。AIは、人間が作成した高度に設計されたコードと機械学習(ML)の産物であるため、人間のバイアスやエラーの影響を受けやすく、個人に対する差別やその他の危害につながる可能性があります。

ガバナンスは、これらの潜在的なリスクを軽減するための構造化されたアプローチを提供します。このようなアプローチには、健全なAIポリシー、規制、データ・ガバナンスが含まれます。これらは、機械学習アルゴリズムが監視、評価、更新され、欠陥のある決定や有害な決定が防止され、データセットが適切にトレーニングされ、維持されることを促進します。

ガバナンスは、倫理基準や社会の期待に則ってAIが行動し、潜在的な悪影響を及ぼさないようにするために必要な監督が行われるようにすることを目的としています。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

AIガバナンスが重要な理由

AIガバナンスは、AIテクノロジーの開発と応用におけるコンプライアンス、信頼、効率性を実現するために不可欠です。AIが組織や政府の業務にますます統合されるにつれて、AIがもたらす悪影響の可能性がより顕著になってきました。

Microsoft AI チャットボットがSNSでの公開インタラクションから有害な行動を学習した Tayチャットボット事件や、代替制裁のための矯正犯罪者管理プロファイリング(COMPAS)ソフトウェアによる偏った量刑決定などの注目を集めた失敗は、危害を防ぎ、国民の信頼を維持するために健全なガバナンスが必要であることを浮き彫りにしました。

これらの事例は、AIが適切な監督なしでは重大な社会的および倫理的危害を引き起こす可能性があることを示しており、高度なAIに関連するリスクを管理する際のガバナンスの重要性が明確になっています。AIガバナンスは、ガイドラインとフレームワークを提供することで、技術的なイノベーションと安全性のバランスをとり、AIシステムが人間の尊厳や権利を侵害しないようにすることを目指します。

また、AIシステムが責任を持ち、信頼を得られるように使用されるには、透明性のある意思決定説明可能性が欠かせません。AIシステムは、どの広告を表示するかの決定からローンを承認するか否かの決定に至るまで、常時意思決定を行っています。AIシステムがその決定に対して責任を負い、公正かつ倫理的に決定を促進するためには、AIシステムがどのように決定を行うかを理解することが不可欠です。

さらに、AIガバナンスは、1回限りのコンプライアンスを確保する役に立てばよいというわけではありません。倫理基準を長期的に維持することも重要になります。AIモデルドリフトする可能性があり、出力の品質と信頼性を変動させることがあります。今日のガバナンスの傾向は、単なる法令順守を超えて、AIの社会的責任の確保に向けて移行しており、それによって財務的、法的、風評的損害を防ぎながら、テクノロジーの責任ある成長を促進しています。

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

AIガバナンスの例

AIガバナンスの例には、AIテクノロジーの責任ある使用を促進する、組織や政府が実践すべきさまざまなポリシー、フレームワーク、プラクティスが含まれます。これらの例は、AIガバナンスがさまざまな状況でどのように発生するかを示しています。これらの例は、AIガバナンスがさまざまな状況でどのように発生するかを示しています。

一般データ保護規則(GDPR):GDPRは、特に個人データ保護とプライバシーにおけるAIガバナンスの一例です。GDPRはAIだけに焦点を当てているわけではありませんが、その規定の多くはAIシステム、特に欧州連合域内に暮らす個人の個人情報を処理するシステムに非常に関連しています。

経済協力開発機構(OECD):40カ国以上が採択したOECD AI原則は、AIシステムの透明性、公平性、説明責任など、信頼できるAIの責任ある管理を強調しています。

企業のAI倫理委員会:多くの企業は、AIへの取り組みを監督するために倫理委員会またはその他の委員会を設立し、AIが倫理基準や社会的価値観と確実に合致するようにしています。例えば、2019年以降、IBMのAI倫理評議会は、新しいAI製品とサービスがIBMのAI原則に準拠しているかどうかを審査しています。こうした委員会は、法律や技術、ポリシーを専門とする各部門が横断的に集まり構成されることが少なくありません。

責任あるAIガバナンスを監督するのは誰か

大規模な組織では、CEOと上級幹部は、組織がAIのライフサイクル全体にわたって健全なAIガバナンスが確実に適用されるようにする最終的な責任を負います。法務部門および法務顧問には、法的リスクを評価して軽減し、AIアプリケーションが関連する法律や規制に準拠していることを確認する責任があります。

監査チームは、AIシステムのデータの整合性を検証し、システムがエラーやバイアスを引き起こすことなく意図したとおりに動作するよう確実にするために不可欠な存在です。CFOは財務への影響を監督し、AIへの取り組みに関連するコストを管理し、財務リスクを軽減します。

ただし、AIガバナンスの責任は単一の個人や部門にあるわけではありません。これは共同責任で、すべてのリーダーは説明責任を重視し、組織全体でAIシステムが責任と倫理感のある使用法が徹底されるように努める必要があります。

また、CEOと経営級幹部は、組織の全体的な理念と文化を設定する責任があります。責任あるAIガバナンスを優先する場合、すべての従業員に対して、「誰もが責任を持って倫理的にAIを使用する必要がある」という明確なメッセージが伝わることになります。CEOと経営幹部は、従業員のAIガバナンス・トレーニングに投資し、社内ポリシーと手順を積極的に開発し、オープンなコミュニケーションとコラボレーションの文化を根付かせることもできます。

責任あるAIガバナンスの原則と基準

特に生成AIの出現によるAIテクノロジーの急激な進歩を管理するためにAIガバナンスが欠かせません。生成AIには、テキスト、画像、コードなど、新しいコンテンツやソリューションを作成できるテクノロジーが含まれており、多くのユースケースで活用できる大きな可能性を秘めています。

デザインやメディアにおける創造性を高めるプロセスからソフトウェア開発におけるタスクの自動化に至るまで、生成AIは各種業界でのオペレーションに変革をもたらしています。その一方で、適用範囲が広いため、堅牢なAIガバナンスが必要になります。

組織が自社と顧客を守るために、責任あるAIガバナンスの原則は欠かせません。次の原則は、組織がAIテクノロジーを倫理的に開発および適用する際の指針となります。

  • 共感:組織は、技術的および財務的側面だけでなく、AIの社会的影響を理解する必要があります。すべての利害関係者に対しどのようなAIの影響があるかを予測し、それに対処する必要があります。

  • バイアス制御: トレーニング用データを厳密に調べて、現実世界のバイアスが AI アルゴリズムに埋め込まれるのを防ぐことが、公正でバイアスのない意思決定プロセスを保証を促進するために不可欠です。

  • 透明性:AIアルゴリズムがどのように動作して意思決定を行うかについて明確性とオープンさが必要です。組織はAIにより導き出された結果の背後にある論理と推論を説明できなければなりません。
  • 説明責任:組織は、AIがもたらす重大な変化を管理するための高い基準を事前に設定して、これを遵守し、AIの影響に対する責任を維持する必要があります。

2023年後半、米国政府はAIの安全性とセキュリティーを促進するための大統領令を発令しました。この包括的な法令は、AIテクノロジーに固有のリスクを管理するための新しい標準を確立するための枠組みを提供しています。米国政府の新しいAIの安全性とセキュリティー基準は、政府がこの非常にデリケートな問題にどのように取り組んでいるかを示すよい例です。

  • AIの安全性とセキュリティー:強力なAIシステムの開発者に、安全性テストの結果と重要な情報を米国政府と共有することを義務付けています。AIシステムの安全性と信頼性を確保を促進するための標準、ツール、テストの開発が必要となります​。

  • プライバシー保護:プライバシー保護技術の開発と使用を優先し、プライバシー保護の研究と技術を強化します。また、連邦機関がプライバシー保護技術の有効性を評価するためのガイドラインも定めています。

  • 公平性と公民権:AIがさまざまな分野で差別やバイアスを悪化させるのを防ぎます。これには、家主や連邦プログラムの指導、アルゴリズムによる差別の解消、そして刑事司法制度の公平性を確保を促進することが含まれます。

  • 消費者、患者、学生の保護:救命薬の開発やAI対応教育ツールのサポートなど、医療と教育における責任あるAIの活用を支援します。

  • 労働者へのサポート:離職や職場の公平性への対応など、AIが仕事や職場に及ぼす悪影響を軽減するための原則を策定します。

  • イノベーションと競争の促進:米国全土のAI研究を促進し、公正で競争力のあるAIエコシステムを奨励し、熟練したAI専門家の米国への流入を促進します。

  • AIにおける世界的なリーダーシップ:AIに関して国際的な協力関係を拡大し、国際パートナーとの重要なAI標準の開発と実装を促進します。

  • 政府によるAIの使用:政府機関のためのAIの使用に関するガイダンスの発行、AI調達の改善、AI専門家の雇用の加速により、政府による責任あるAIの導入を促進します。

規制や市場原理により多くのガバナンス指標が標準化される一方で、組織はそのビジネスに合わせて最適なバランスをとる方法を見極める必要があります。AIガバナンスの有効性指標は組織により異なる場合があります。各組織は、どの領域を優先する必要があるかを決定する必要があります。データ品質、モデルのセキュリティー、コスト価値分析、バイアス監視、個人の説明責任、継続的な監査、組織のドメインに応じて調整する適応性などの重点領域があるため、これは万能の決定ではありません。

AIガバナンスのレベル

AIガバナンスには、例えばサイバーセキュリティーで脅威への対応レベルが定義されているような普遍的に標準化された「レベル」がありません。その代わりに、AIガバナンスでは、組織が特定のニーズに適応したり採用したりできる、さまざまな主体によって開発された構造化アプローチとフレームワークが用意されています。

組織は、ガバナンス実践方法を確立するために、いくつかのフレームワークとガイドラインを使用できます。最も広く使用されているフレームワークには、NIST AIリスク管理フレームワーク、OECD人工知能原則、欧州委員会の信頼できるAIに関する倫理ガイドラインなどがあります。これらのフレームワークは、透明性、説明責任、公平性、プライバシー、セキュリティー、安全性など、さまざまな分野における指針を提供します。

ガバナンスのレベルは、組織の規模、使用されているAIシステムの複雑さ、組織が事業を営んでいる規制環境により異なります。

これらのアプローチの概要は次のとおりです。

略式のガバナンス

これは、組織の価値観と原則に基づいたガバナンスへの最も労力の少ないアプローチです。倫理審査委員会や内部委員会などで非公式のプロセスが存在する可能性はありますが、ここにはAIガバナンスの正式な構造やフレームワークはありません。

アドホックなガバナンス

これは略式のガバナンスからのワンランク上のガバナンスで、ここでは、AIの開発と使用のための特定のポリシーと手順が策定されます。このタイプのガバナンスは、特定の課題やリスクに対応して開発されることが多く、包括的または体系的ではない場合があります。

正式なガバナンス

これは最高レベルのガバナンスで、包括的なAIガバナンスのフレームワークの開発が含まれます。このフレームワークは組織の価値観と原則を反映しており、関連する法律や規制に準拠しています。正式なガバナンスのフレームワークには、通常、リスク評価、倫理審査、監視プロセスが含まれます。

組織によるAIガバナンスのデプロイ方法

AI駆動型オートメーションが医療、金融から交通、公共サービスに至る多岐にわたる分野で普及するにつれて、AIガバナンスはますます重要になります。AIのオートメーション機能は、効率性、意思決定能力、イノベーションを大幅に向上させることができますが、同時に説明責任、透明性、倫理的配慮の面に関連する課題ももたらします。

AIガバナンスには、これらの課題に対処するためのポリシー、ガイドライン、フレームワークを含む堅牢なコントロール構造の確立が含まれます。また、AIシステムを継続的に監視および評価するメカニズムをセットアップし、確立された倫理規範と法的規制を確実に遵守することも必要になります。

AIにおける効果的なガバナンス構造は学際的であり、テクノロジー、法律、倫理、ビジネスなど、多岐にわたる分野の利害関係者が関与することになります。AIシステムがより洗練され、社会の重要な側面に組み込まれるようになるにつれて、AI開発とその社会的影響を進むべき方向に導き、形成する上でのAIガバナンスの役割がますます重要になっています。

AIガバナンスのベスト・プラクティスには、単なるコンプライアンスを超えた、AIアプリケーションの監視と管理のためのより堅牢なシステムを包含するアプローチが含まれています。大規模な企業であれば、AIガバナンス・ソリューションにより、AIシステムに対する広範な監視とコントロールが可能になるはずです。以下は、検討すべきロードマップの一例です。

  1. ビジュアル・ダッシュボード:AIシステムの健全性とステータスに関するリアルタイムの最新情報を提供するダッシュボードから明確な概要を確認でき、迅速にアセスメントを行えます。
     

  2. 健全性スコア・メトリクス:直感的で理解しやすいメトリクスを使用してAIモデルの全体的な健全性スコアを評価し、監視を簡素化します。
     

  3. 自動監視:モデルが正しく倫理的に機能することを促進するために、バイアス、ドリフト、パフォーマンス、異常の自動検知システムを採用します。

  4. パフォーマンス・アラート:モデルが事前定義されたパフォーマンス・パラメーターから逸脱した場合にアラートが送信されるように設定し、タイムリーな介入を可能にします。
     

  5. カスタム・メトリクス:組織の主要業績評価指標(KPI)としきい値に合わせてカスタム・メトリクスを定義し、AIがもたらす影響がビジネス目標に貢献することを促進します。

  6. 監査証跡:説明責任を果たし、AIシステムの決定と動作を簡単に確認できるよう、アクセスしやすいログと監査証跡を維持します。
     

  7. オープンソース・ツールの互換性:柔軟性とコミュニティー・サポートを活用するには、さまざまな機械学習開発プラットフォームと互換性のあるオープンソース・ツールを選択する必要があります。

  8. シームレスな統合:AIガバナンス・プラットフォームがデータベースやソフトウェア・エコシステムなどの既存インフラストラクチャーとシームレスに統合されるよう促進し、サイロ化を回避することで効率的なワークフローを可能にします。
     

これらのプラクティスを実践することで、企業は責任あるAIの開発、導入、管理をサポートする強固なAIガバナンスのフレームワークを確立することができ、AIシステムがコンプライアンスを遵守し、倫理基準や組織の目標に沿ったものであることを促進できるようになります。

AIガバナンスを義務付けている規則

AIガバナンスの実践と規制は、バイアスと差別を防ぐためにいくつもの国で採用されています。規制は常に流動的であることを覚えておくことが重要であり、複雑なAIシステムを管理する組織は、地域の法的フレームワークの進化に注意を払う必要があります。

EUのAI法

欧州連合の人工知能法は、EU AI法または単純にAI法とも呼ばれ、欧州連合(EU)における人工知能(AI)の開発や使用を規定する法律です。この法律は、規制に対してリスクベースのアプローチを取り、AIがもたらすリスクに応じてAIに異なるルールを適用します。

世界初の包括的な AI フレームワークとされる EU AI 法は、一部の AI の使用を全面的に禁止し、その他の使用については厳格なガバナンス、リスク管理、透明性の要件を課しています。

この法律はまた、IBM® GraniteやMeta社のLlama 3オープンソース基盤モデルのような、汎用の人工知能モデルのルールも作成しています。罰金はコンプライアンス違反の種類に応じて、750万ユーロまたは世界の年間売上高の1.5%から、3,500万ユーロまたは世界の年間売上高の7%までの幅があります。

米国のSR-11-7

SR-11-7は、銀行業界における効果的かつ強力なモデル・ガバナンスを目的とした米国のモデル・ガバナンス基準です。1この規制では、銀行職員がモデル・リスク管理イニシアチブを全社的に適用したうえで、使用のために導入済み、導入のために開発中、または最近廃止済みのモデルのインベントリーを維持することが義務付けられています。

また、組織のリーダーは、解決しようとしていたビジネス目的をモデルが達成していること、モデルが最新のものであること、逸脱していないことを証明する必要もあります。モデルの開発と検証では、モデルに詳しくない人でもモデルの操作、制限、重要な前提を理解できるようにする必要があります。

カナダの意思決定の自動化に関する指令

カナダの自動意思決定に関する指令では、カナダ政府がAIを使用していくつかの部門の意思決定をどのように導いているかが説明されています。2この指令では、採点システムを使用して、市民にサービスを提供するために構築されたAIツールに求められる人間の介入、ピア・レビュー、監視、緊急時対応計画を評価しています。

高スコアのAIソリューションを構築する組織は、2回の独立したピアレビューを実施し、平易な言葉で公告を行い、人的介入によるフェールセーフを開発し、システムの定期的なトレーニング・コースを確立する必要があります。カナダの自動意思決定に関する指令は、カナダ独自のAI開発用ガイドラインであるため、この規制は米国のSR 11-7のように企業には直接的な影響を及ぼしません。

欧州の変動的なAI規制

2021年4月、欧州委員会はAIパッケージを発表しました。これには、卓越性や信頼性、AIに関する法的なフレームワークの提案に対する欧州のアプローチの促進に関する声明が含まれています。3

これらの声明では、ほとんどのAIシステムは「最小リスク」のカテゴリーに該当しますが、「高リスク」と特定されたAIシステムはより厳しい要件の遵守が求められ、「容認できないリスク」とみなされたシステムは禁止されることを定めています。組織はこれらのルールに細心の注意を払う必要があり、これに違反した場合は罰金が科せられる可能性があります。

    アジア太平洋地域におけるAIガバナンス規制およびガイドライン

    中国は2023年に生成AIサービスの管理に関する暫定措置を公布しました。同法では、生成AIサービスの提供と使用は「他者の正当な権利と利益を尊重」しなければならず「他者の心身の健康を危険にさらさず、他者の肖像権、名誉権、プライバシー権、個人情報権を侵害しない」ことが定められています。

    アジア太平洋地域の他の国々も、AIを管理するためのいくつかの原則とガイドラインを発表しています。2019年、シンガポール連邦政府は民間部門におけるAI倫理の問題に対処するためのガイドラインを含むフレームワークを発表し、さらに最近では2024年5月に生成AIのガバナンスフレームワークを発表しました。日本、インド、韓国、タイもAI ガバナンスに関するガイドラインや法律の制定を検討しています。3

    関連ソリューション
    IBM® watsonx.governance

    IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

    watsonx.governanceについて
    AIガバナンス・コンサルティング・サービス

    IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

    AIガバナンス・サービスの詳細はこちら
    IBM OpenPages

    統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。

    OpenPagesの詳細はこちら
    次のステップ

    AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

    watsonx.governanceの詳細はこちら デモを予約
    脚注

    1 「SR 11-7: Guidance on model risk management.」、 連邦準備制度理事会、ワシントンDC、銀行監督規制局、2011年4月4日。

    2 「Canada's new federal directive makes ethical AI a national issue.」 Digital社、2019年3月8日。

    3 「Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology」、Sidley法律事務所、2024年8月16日。