AIガバナンスとは。
IBM® watsonx.governanceの詳細はこちら
影の異なる立方体とノートPCで表されるさまざまなエンドポイントに接続されたブラック・ボックスのアイソメ図。ブラック・ボックスの上部には開口部があり、立方体が浮かんでいる

公開日:2023年11月28日
寄稿者:Tim Mucci、Cole Stryker

AIガバナンスとは。

人工知能(AI)ガバナンスとは、AIツールとシステムが安全かつ倫理的であることを確保するガードレールの役割を果たします。AIの研究、開発、応用を方向付ける枠組み、ルール、基準を確立し、安全性、公平性、人権の尊重を確保します。

 

AIガバナンスには、イノベーションと信頼を促進しながら、偏見、プライバシー侵害、悪用などのリスクに対処する監視メカニズムが含まれます。AI関連システムが社会の価値観に沿うように開発・使用されることを確実にするため、AIガバナンスに対する倫理的なAI駆動型アプローチには、AI開発者、ユーザー、政策立案者、倫理学者を含む幅広い利害関係者の関与が必要です。

AIガバナンスは、AIの開発と保守における人為的な問題に対処します。AIは人が作成した高度なコードと機械学習の産物であるため、開発者のバイアスやエラーの影響を受けやすくなります。ガバナンスはこれらのリスクを軽減するための構造化されたアプローチで、機械学習アルゴリズムが監視、評価、更新されることでエラーや有害な決定を防止します。

AIソリューションは、責任を持って倫理的に開発および使用されなければなりません。それは、AIにまつわるリスク、つまり個人に対するバイアスや差別、危害に対処することを意味します。ガバナンスは、健全なAIポリシーや規制、データ・ガバナンス、および十分にトレーニングされ維持されたデータ・セットを通じて、これらのリスクに対処します。

ガバナンスは、倫理基準や社会の期待に則ってAIが行動し、潜在的な悪影響を及ぼさないようにするために必要な監督が行われるようにすることを目的としています。

IBM® watsonx.governanceの動作をご覧ください

watsonx.governanceがリスクを軽減し、規制要件を管理し、倫理的懸念に対処する能力をどのように強化するかをご覧ください。

関連コンテンツ

AIガバナンス:AIの透明性、コンプライアンス、信頼性を確保します

IBM AIガバナンス:ガバナンスを自動化して、責任があり、透明性があり、説明可能なAIを提供します

AIガバナンスが重要な理由

AIガバナンスは、AIテクノロジーの開発と適用におけるコンプライアンス、 信頼 、高い効率性を実現するために不可欠です。AIが組織や政府に組み込まれるようになるにつれて、それによる悪影響が及ぶ可能性がより顕著になってきています。 Tayチャットボット事件 (ibm.com外部へのリンク)のような注目を集めた失策は、Microsoft AIチャットボットがソーシャル・メディア上の公開でのやり取りから有害な動作を学習したことや COMPAS (ibm.com外部へのリンク)ソフトウェアの偏った量刑決定は、危害を防ぎ市民の信頼を維持するために、健全なガバナンスの必要性を浮き彫りにしました。

これらの事例は、AIが適切な監督なしでは重大な社会的および倫理的危害を引き起こす可能性があることを示しており、高度なAIに関連するリスクを管理する際のガバナンスの重要性が明確になっています。AIガバナンスは、ガイドラインとフレームワークを提供することで、技術的なイノベーションと安全性のバランスをとり、AIシステムが人間の尊厳や権利を侵害しないようにすることを目指します。

AIシステムが責任を持って使用されるようにするには、透明性のある意思決定と 説明可能性 が欠かせません。AIシステムは、どの広告を表示するかの決定からローンを承認するか否かの決定に至るまで、常時意思決定を行っています。AIシステムがその決定に対して責任を負い、公正かつ倫理的に決定を下すためには、AIシステムがどのように決定を行うかを理解することが不可欠です。

さらに、AIガバナンスは、1回限りのコンプライアンスを確保すればよいというわけではありません。倫理基準を長期的に維持することも重要になります。AIモデルはドリフトする可能性があり、出力の品質と信頼性を変動させることがあります。今日のガバナンスの傾向は、単なる法令順守を超えて、AIの社会的責任の確保に向けて移行しており、それによって財務的、法的、風評的損害を防ぎながら、テクノロジーの責任ある成長を促進しています。

AIガバナンスの例

AIガバナンスの例には、AIテクノロジーの責任ある使用を保証するために組織や政府が実践すべきさまざまなポリシー、フレームワーク、プラクティスが含まれます。これらの例は、AIガバナンスがさまざまな状況でどのように発生するかを示しています。

一般データ保護規則(GDPR):特に個人データ保護とプライバシーにおけるAIガバナンスの例。GDPRはAIだけに焦点を当てているわけではありませんが、その規定の多くはAIシステム、特に欧州連合域内に暮らす個人の個人情報を処理するシステムに非常に関連しています。

経済協力開発機構(OECD):40カ国以上が採択したAI原則は、AIシステムの透明性、公平性、説明責任など、信頼できるAIの責任ある管理を強調しています。

企業のAI倫理委員会:多くの企業は、AIへの取り組みを監督するために倫理委員会またはその他の委員会を設立し、AIが倫理基準や社会的価値観と確実に合致するようにしています。例えば、IBMは、新しいAI製品とサービスを審査し、それらがIBMのAI原則と一致していることを確認するためにAI倫理評議会を立ち上げました。こうした委員会は、法律や技術、ポリシーを専門とする各部門が横断的に集まり構成されることが少なくありません。

責任あるAIガバナンスを監督するのは誰か

大規模な組織では、CEOと上級幹部は、組織がAIのライフサイクル全体にわたって健全なAIガバナンスが確実に適用されるようにする最終的な責任を負います。法務部門および法務顧問には、法的リスクを評価して軽減し、AIアプリケーションが関連する法律や規制に準拠していることを確認する責任があります。監査チームは、AIシステムのデータの整合性を検証し、システムがエラーやバイアスを引き起こすことなく意図したとおりに動作するよう確実にするために不可欠な存在です。CFOは財務への影響を監督し、AIへの取り組みに関連するコストを管理し、財務リスクを軽減します。

ただし、AIガバナンスの責任は単一の個人や部門にあるわけではありません。これは共同責任で、すべてのリーダーは説明責任を重視し、組織全体でAIシステムが責任と倫理感のある使用法が徹底されるようにする必要があります。また、CEOと経営級幹部は、組織の全体的な理念と文化を設定する責任があります。責任あるAIガバナンスを優先する場合、すべての従業員に対して、「誰もが責任を持って倫理的にAIを使用する必要がある」という明確なメッセージが伝わることになります。CEOと経営幹部は、従業員のAIガバナンス・トレーニングに投資し、社内ポリシーと手順を積極的に開発し、オープンなコミュニケーションとコラボレーションの文化を根付かせることもできます。

責任あるAIガバナンスの原則

特に生成AIの出現によるAIテクノロジーの急激な進歩を管理するためにAIガバナンスが欠かせません。生成AIには、テキスト、画像、コードなど、新しいコンテンツやソリューションを作成できるテクノロジーが含まれており、多くのユースケースで活用できる大きな可能性を秘めています。デザインやメディアにおける創造性を高めるプロセスからソフトウェア開発におけるタスクの自動化に至るまで、生成AIは各種業界でのオペレーションに変革をもたらしています。その一方で、適用範囲が広いため、堅牢なAIガバナンスが必要になります。

組織が自社と顧客を守るために、責任あるAIガバナンスの原則は欠かせません。次の原則は、組織がAIテクノロジーを倫理的に開発および適用する際の指針となります。

  • 共感:組織は、技術的および財務的側面だけでなく、AIの社会的影響を理解する必要があります。すべての利害関係者に対しどのようなAIの影響があるかを予測し、それに対処する必要があります。

  • バイアス管理:AIアルゴリズムに現実世界のバイアスが埋め込まれないようにトレーニング・データを厳密に調査し、公平で偏りのない意思決定を確保することが重要です。

  • 透明性:AIアルゴリズムがどのように動作して意思決定を行うかについて明確性とオープンさが必要です。組織はAIにより導き出された結果の背後にある論理と推論を説明できなければなりません。

  • 説明責任:組織は、AIがもたらす重大な変化を管理するための高い基準を事前に設定して、これを遵守し、AIの影響に対する責任を維持する必要があります。

2023年後半、米国政府はAIの安全性とセキュリティーを確保するための大統領令を発令しました。この包括的な法令は、AIテクノロジーに固有のリスクを管理するための新しい標準を確立するための枠組みを提供しています。米国政府の新しいAIの安全性とセキュリティー基準は、政府がこの非常にデリケートな問題にどのように取り組んでいるかを示すよい例です。

  • AIの安全性とセキュリティー:強力なAIシステムの開発者に、安全性テストの結果と重要な情報を米国政府と共有することを義務付けています。AIシステムの安全性と信頼性を確保するための標準、ツール、テストの開発が必要となります。

  • プライバシー保護:プライバシー保護技術の開発と使用を優先し、プライバシー保護の研究と技術を強化します。また、連邦機関がプライバシー保護技術の有効性を評価するためのガイドラインも定めています。

  • 公平性と公民権:AIがさまざまな分野で差別や偏見を悪化させるのを防ぎます。家主と連邦プログラムの指導、アルゴリズムで特定した差別に対処し、刑事司法制度の公平性を確保することが含まれます。

  • 消費者、患者、学生の保護:救命薬の開発やAI対応教育ツールのサポートなど、医療と教育における責任あるAIの活用を支援します。

  • 労働者へのサポート:離職や職場の公平性への対応など、AIが仕事や職場に及ぼす悪影響を軽減するための原則を策定します。

  • イノベーションと競争の促進:米国全土のAI研究を促進し、公正で競争力のあるAIエコシステムを奨励し、熟練したAI専門家の米国への流入を促進します。

  • AIにおける世界的なリーダーシップ:AIに関して国際的な協力関係を拡大し、国際パートナーとの重要なAI標準の開発と実装を促進します。

  • 政府によるAIの使用:政府機関のためのAIの使用に関するガイダンスの発行、AI調達の改善、AI専門家の雇用の加速により、政府による責任あるAIの導入を確実にします。

     

  • 規制や市場原理により多くのガバナンス指標が標準化される一方で、組織はそのビジネスに合わせて最適なバランスをとる方法を見極める必要があります。AIガバナンスの有効性指標は組織により異なる場合があります。各組織は、どの領域を優先する必要があるかを決定する必要があります。データ品質、モデルのセキュリティー、コスト価値分析、バイアスの監視、個人の責任、継続的な監査、組織が属する業界に応じた調整の適応性などの重点分野があるため、すべてに適用できる単一の回答はありません。米国全土のAI研究を促進することから、公正で競争力のあるAIエコシステムを奨励すること、さらには熟練したAI専門家の米国への流入促進まで、さまざまです。

AIガバナンスのレベル

AIガバナンスには、例えばサイバーセキュリティーで脅威への対応レベルが定義されているような普遍的に標準化された「レベル」がありません。その代わりに、AIガバナンスでは、組織が特定のニーズに適応したり採用したりできる、さまざまな主体によって開発された構造化アプローチとフレームワークが用意されています。

組織は、ガバナンス実践方法を確立するために、いくつかのフレームワークとガイドラインを使用できます。最も広く使用されているフレームワークには、NIST AIリスク管理フレームワーク、OECD人工知能原則、欧州委員会の信頼できるAIに関する倫理ガイドラインなどがあります。これらのフレームワークは、透明性、説明責任、公平性、プライバシー、セキュリティー、安全性など、さまざまな分野における指針を提供します。

ガバナンスのレベルは、組織の規模、使用されているAIシステムの複雑さ、組織が事業を営んでいる規制環境により異なります。

これらのアプローチの概要は次のとおりです。

略式のガバナンス

これは、組織の価値観と原則に基づいたガバナンスへの最も労力の少ないアプローチです。倫理審査委員会や内部委員会などで非公式のプロセスが存在する可能性はありますが、ここにはAIガバナンスの正式な構造やフレームワークはありません。

アドホックなガバナンス

これは略式のガバナンスからのワンランク上のガバナンスで、ここでは、AIの開発と使用のための特定のポリシーと手順が策定されます。このタイプのガバナンスは、特定の課題やリスクに対応して開発されることが多く、包括的または体系的ではない場合があります。

正式なガバナンス

これは最高レベルのガバナンスで、包括的なAIガバナンスのフレームワークの開発が含まれます。このフレームワークは組織の価値観と原則を反映しており、関連する法律や規制に準拠しています。正式なガバナンスのフレームワークには、通常、リスク評価、倫理審査、監視プロセスが含まれます。

組織によるAIガバナンスのデプロイ方法

AI駆動型オートメーションが医療、金融から交通、公共サービスに至る多岐にわたる分野で普及するにつれて、AIガバナンスはますます重要になります。AIのオートメーション機能は、効率性、意思決定能力、イノベーションを大幅に向上させることができますが、同時に説明責任、透明性、倫理的配慮の面に関連する課題ももたらします。

AIガバナンスには、これらの課題に対処するためのポリシー、ガイドライン、フレームワークを含む堅牢なコントロール構造の確立が含まれます。また、AIシステムを継続的に監視および評価するメカニズムをセットアップし、確立された倫理規範と法的規制を確実に遵守することも必要になります。

AIにおける効果的なガバナンス構造は学際的であり、テクノロジー、法律、倫理、ビジネスなど、多岐にわたる分野の利害関係者が関与することになります。AIシステムがより洗練され、社会の重要な側面に組み込まれるようになるにつれて、AI開発とその社会的影響を進むべき方向に導き、形成する上でのAIガバナンスの役割がますます重要になっています。

AIガバナンスのベスト・プラクティスには、単なるコンプライアンスを超えた、AIアプリケーションの監視と管理のためのより堅牢なシステムを包含するアプローチが含まれています。大規模な企業であれば、AIガバナンス・ソリューションにより、AIシステムに対する広範な監視とコントロールが可能になるはずです。以下は、検討すべきロードマップの一例です。

  1. ビジュアル・ダッシュボード:AIシステムの健全性とステータスに関するリアルタイムの最新情報を提供するダッシュボードから明確な概要を確認でき、迅速にアセスメントを行えます。

  2. 健全性スコア・メトリクス:直感的で理解しやすいメトリクスを使用してAIモデルの全体的な健全性スコアを評価し、監視を簡素化します。

  3. 自動監視:モデルが正しく倫理的に機能することを保証するために、バイアス、ドリフト、パフォーマンス、異常の自動検知システムを採用します。

  4. パフォーマンス・アラート:モデルが事前定義されたパフォーマンス・パラメーターから逸脱した場合にアラートが送信されるように設定し、タイムリーな介入を可能にします。

  5. カスタム・メトリクス:組織の主要業績評価指標(KPI)としきい値に合わせてカスタム・メトリクスを定義し、AIがもたらす影響がビジネス目標に確実に貢献するようにします。

  6. 監査証跡:説明責任を果たし、AIシステムの決定と動作を簡単に確認できるよう、アクセスしやすいログと監査証跡を維持します。

  7. オープンソース・ツールの互換性:柔軟性とコミュニティー・サポートを活用するには、さまざまな機械学習開発プラットフォームと互換性のあるオープンソースツールを選択する必要があります。

  8. シームレスな統合:AIガバナンス・プラットフォームがデータベースやソフトウェア・エコシステムなどの既存インフラストラクチャーとシームレスに統合されるようにして、サイロ化を回避することで効率的なワークフローを可能にします。

これらのプラクティスを実践することで、企業は責任あるAIの開発、導入、管理をサポートする強固なAIガバナンスのフレームワークを確立することができ、AIシステムがコンプライアンスを遵守し、倫理基準や組織の目標に沿ったものであることを確保することができるようになります。

AIガバナンスを義務付けている規則

AIガバナンスの実践と規制は、偏見と差別を防ぐために多くの国で採用されています。以下はほんの一例です。規制は常に流動的であることを覚えておくことが重要であり、複雑なAIシステムを管理する組織は、地域のフレームワークの進化に注意を払う必要があります。

米国のSR-11-7

SR-11-71は、銀行業界における効果的かつ強力なモデル・ガバナンスを目的とした米国のモデル・ガバナンス基準です。この規制では、銀行職員がモデル・リスク管理イニシアチブを全社的に適用したうえで、使用のために導入済み、導入のために開発中、または最近廃止済みのモデルのインベントリーを維持することが義務付けられています。また、組織のリーダーは、解決しようとしていたビジネス目的をモデルが達成していること、モデルが最新のものであること、逸脱していないことを証明する必要もあります。モデルの開発と検証では、モデルに詳しくない人でもモデルの操作、制限、重要な前提を理解できるようにする必要があります。

カナダの意思決定の自動化に関する指令

カナダの自動意思決定に関する指令2 では、カナダ政府がAIを使用していくつかの部門の意思決定をどのように導いているかが説明されています。この指令では、採点システムを使用して、市民にサービスを提供するために構築されたAIツールに求められる人間の介入、ピア・レビュー、監視、緊急時対応計画を評価しています。高スコアのAIソリューションを構築する組織は、2回の独立したピアレビューを実施し、平易な言葉で公告を行い、人的介入によるフェールセーフを開発し、システムの定期的なトレーニング・コースを確立する必要があります。カナダの自動意思決定に関する指令は、カナダ独自のAI開発用ガイドラインであるため、この規制は米国のSR 11-7のように企業には直接的な影響を及ぼしません。

欧州の変動的なAI規制

2021年4月、欧州委員会はAIパッケージ3を発表しました。これには、卓越性や信頼性、AIに関する法的なフレームワークの提案に対する欧州のアプローチの促進に関する声明が含まれています。これらの声明では、ほとんどのAIシステムは「最小リスク」のカテゴリーに該当しますが、「高リスク」と特定されたAIシステムはより厳しい要件の遵守が求められ、「容認できないリスク」とみなされたシステムは禁止されることを定めています。組織はこれらのルールに細心の注意を払う必要があり、これに違反した場合は罰金が科せられる可能性があります。

    アジア太平洋地域におけるAIガバナンスのガイドライン

    アジア太平洋地域では、国ごとにAIを管理するためのいくつかの原則とガイドラインを発表しています。2019年には、シンガポール連邦政府が民間部門におけるAI倫理の問題に対処するためのガイドラインを含むフレームワークを発表しました。インドのAI戦略フレームワークでは、AI倫理やプライバシーなどに関連する問題への対処方法を研究するセンターの設立を推奨しています。日本、中国、韓国、オーストラリア、ニュージーランドも、AIガバナンスのガイドライン作成を検討しています。 4

    関連ソリューション
    watsonx

    1つのプラットフォーム上で、ビジネス全体に簡単にAIを導入し、すべてのデータ・ソースを管理し、責任あるAIワークフローを推進します。

    watsonxの詳細はこちら

    IBM OpenPages

    拡張性が高く、AI を活用した統合 GRC プラットフォームである IBM OpenPages を使用して、データ・ガバナンス、リスク管理、法規制へのコンプライアンスを簡素化します。

    OpenPagesの詳細はこちら

    参考情報 責任あるAIワークフローの構築

    最新の電子ブックでは、AIガバナンスの主要な構成要素を概説し、組織に適用できる詳細なAIガバナンスのフレームワークを共有します。

    組織が責任あるAIを必要とする3つの主要な理由

    組織にとっての責任あるAIのトランスフォーメーションの可能性を探り、倫理的なAI実践の導入の背後にある重要な推進力について詳細をご覧ください。

    貴社のAIは信頼できますか

    責任あるAIをデプロイするために企業がAIガバナンスを重視すべき理由についてのディスカッションにご参加ください。

    AI倫理とは

    AI倫理は、リスクや不利な結果を軽減しながら、AIの有益な影響を最適化する方法を研究する学際的な分野です。AI倫理へのIBMの取り組みを紹介します。

    説明可能な AI とは

    AI モデルを本番環境で稼働する際に、説明可能な AI は組織の信頼と信用の構築に不可欠となります。

    データ・ガバナンスとは

    データ・ガバナンスによって企業がデータ資産を最大限に活用できるようにする方法をご覧ください。

    詳細情報はこちら

    責任ある透明で説明可能なAIワークフローを実現します。組織のAIアクティビティーを指示、管理、監視して、リスクを軽減する能力を強化します。

    IBM® watsonx.governanceの詳細はこちら
    脚注

    1. 「SR 11-7:モデルのリスク管理に関するガイダンス」。連邦準備制度理事会、ワシントンDC、銀行監督規制局、2011年4月4日。

    2. 「カナダの新しい連邦指令により、倫理的AIが国家的課題となる」。デジタル、2019年3月8日。

    3. 「人工知能に対するヨーロッパのアプローチ」。欧州委員会、2023年12月14日

    4. 「世界中がAIガバナンスと格闘」フォーブス誌、2019年3月27日。