人工知能(AI) ガバナンスとは、AIシステムとツールが安全かつ倫理的であることを促進するプロセス、標準、ガードレールを指します。AIガバナンス・フレームワークは、AIの研究、開発、応用を指導し、安全性、公平性、人権の尊重を確保するのに役立ちます。
効果的なAIガバナンスには、イノベーションと信頼醸成を促進しながら、バイアス、プライバシー侵害、悪用などのリスクに対処する監視メカニズムが含まれます。AI関連システムが社会の価値観に沿うように開発・使用されることを確実にするため、AIガバナンスに対する倫理的なAI駆動型アプローチには、AI開発者、ユーザー、政策立案者、倫理学者を含む幅広い利害関係者の関与が必要です。
AIガバナンスは、AIの開発と保守における人為的な問題に対処します。AIは、人間が作成した高度に設計されたコードと機械学習(ML)の産物であるため、人間のバイアスやエラーの影響を受けやすく、個人に対する差別やその他の危害につながる可能性があります。
ガバナンスは、これらの潜在的なリスクを軽減するための構造化されたアプローチを提供します。このようなアプローチには、健全なAIポリシー、規制、データ・ガバナンスが含まれます。これらは、機械学習アルゴリズムが監視、評価、更新され、欠陥のある決定や有害な決定が防止され、データセットが適切にトレーニングされ、維持されることを促進します。
ガバナンスは、倫理基準や社会の期待に則ってAIが行動し、潜在的な悪影響を及ぼさないようにするために必要な監督が行われるようにすることを目的としています。
AIガバナンスは、AIテクノロジーの開発と応用におけるコンプライアンス、信頼、効率性を実現するために不可欠です。AIが組織や政府の業務にますます統合されるにつれて、AIがもたらす悪影響の可能性がより顕著になってきました。
Microsoft AI チャットボットがSNSでの公開インタラクションから有害な行動を学習した Tayチャットボット事件や、代替制裁のための矯正犯罪者管理プロファイリング(COMPAS)ソフトウェアによる偏った量刑決定などの注目を集めた失敗は、危害を防ぎ、国民の信頼を維持するために健全なガバナンスが必要であることを浮き彫りにしました。
これらの事例は、AIが適切な監督なしでは重大な社会的および倫理的危害を引き起こす可能性があることを示しており、高度なAIに関連するリスクを管理する際のガバナンスの重要性が明確になっています。AIガバナンスは、ガイドラインとフレームワークを提供することで、技術的なイノベーションと安全性のバランスをとり、AIシステムが人間の尊厳や権利を侵害しないようにすることを目指します。
また、AIシステムが責任を持ち、信頼を得られるように使用されるには、透明性のある意思決定と説明可能性が欠かせません。AIシステムは、どの広告を表示するかの決定からローンを承認するか否かの決定に至るまで、常時意思決定を行っています。AIシステムがその決定に対して責任を負い、公正かつ倫理的に決定を促進するためには、AIシステムがどのように決定を行うかを理解することが不可欠です。
さらに、AIガバナンスは、1回限りのコンプライアンスを確保する役に立てばよいというわけではありません。倫理基準を長期的に維持することも重要になります。AIモデルはドリフトする可能性があり、出力の品質と信頼性を変動させることがあります。今日のガバナンスの傾向は、単なる法令順守を超えて、AIの社会的責任の確保に向けて移行しており、それによって財務的、法的、風評的損害を防ぎながら、テクノロジーの責任ある成長を促進しています。
AIガバナンスの例には、AIテクノロジーの責任ある使用を促進する、組織や政府が実践すべきさまざまなポリシー、フレームワーク、プラクティスが含まれます。これらの例は、AIガバナンスがさまざまな状況でどのように発生するかを示しています。これらの例は、AIガバナンスがさまざまな状況でどのように発生するかを示しています。
一般データ保護規則(GDPR):GDPRは、特に個人データ保護とプライバシーにおけるAIガバナンスの一例です。GDPRはAIだけに焦点を当てているわけではありませんが、その規定の多くはAIシステム、特に欧州連合域内に暮らす個人の個人情報を処理するシステムに非常に関連しています。
経済協力開発機構(OECD):40カ国以上が採択したOECD AI原則は、AIシステムの透明性、公平性、説明責任など、信頼できるAIの責任ある管理を強調しています。
企業のAI倫理委員会:多くの企業は、AIへの取り組みを監督するために倫理委員会またはその他の委員会を設立し、AIが倫理基準や社会的価値観と確実に合致するようにしています。例えば、2019年以降、IBMのAI倫理評議会は、新しいAI製品とサービスがIBMのAI原則に準拠しているかどうかを審査しています。こうした委員会は、法律や技術、ポリシーを専門とする各部門が横断的に集まり構成されることが少なくありません。
大規模な組織では、CEOと上級幹部は、組織がAIのライフサイクル全体にわたって健全なAIガバナンスが確実に適用されるようにする最終的な責任を負います。法務部門および法務顧問には、法的リスクを評価して軽減し、AIアプリケーションが関連する法律や規制に準拠していることを確認する責任があります。
監査チームは、AIシステムのデータの整合性を検証し、システムがエラーやバイアスを引き起こすことなく意図したとおりに動作するよう確実にするために不可欠な存在です。CFOは財務への影響を監督し、AIへの取り組みに関連するコストを管理し、財務リスクを軽減します。
ただし、AIガバナンスの責任は単一の個人や部門にあるわけではありません。これは共同責任で、すべてのリーダーは説明責任を重視し、組織全体でAIシステムが責任と倫理感のある使用法が徹底されるように努める必要があります。
また、CEOと経営級幹部は、組織の全体的な理念と文化を設定する責任があります。責任あるAIガバナンスを優先する場合、すべての従業員に対して、「誰もが責任を持って倫理的にAIを使用する必要がある」という明確なメッセージが伝わることになります。CEOと経営幹部は、従業員のAIガバナンス・トレーニングに投資し、社内ポリシーと手順を積極的に開発し、オープンなコミュニケーションとコラボレーションの文化を根付かせることもできます。
特に生成AIの出現によるAIテクノロジーの急激な進歩を管理するためにAIガバナンスが欠かせません。生成AIには、テキスト、画像、コードなど、新しいコンテンツやソリューションを作成できるテクノロジーが含まれており、多くのユースケースで活用できる大きな可能性を秘めています。
デザインやメディアにおける創造性を高めるプロセスからソフトウェア開発におけるタスクの自動化に至るまで、生成AIは各種業界でのオペレーションに変革をもたらしています。その一方で、適用範囲が広いため、堅牢なAIガバナンスが必要になります。
組織が自社と顧客を守るために、責任あるAIガバナンスの原則は欠かせません。次の原則は、組織がAIテクノロジーを倫理的に開発および適用する際の指針となります。
2023年後半、米国政府はAIの安全性とセキュリティーを促進するための大統領令を発令しました。この包括的な法令は、AIテクノロジーに固有のリスクを管理するための新しい標準を確立するための枠組みを提供しています。米国政府の新しいAIの安全性とセキュリティー基準は、政府がこの非常にデリケートな問題にどのように取り組んでいるかを示すよい例です。
規制や市場原理により多くのガバナンス指標が標準化される一方で、組織はそのビジネスに合わせて最適なバランスをとる方法を見極める必要があります。AIガバナンスの有効性指標は組織により異なる場合があります。各組織は、どの領域を優先する必要があるかを決定する必要があります。データ品質、モデルのセキュリティー、コスト価値分析、バイアス監視、個人の説明責任、継続的な監査、組織のドメインに応じて調整する適応性などの重点領域があるため、これは万能の決定ではありません。
AIガバナンスには、例えばサイバーセキュリティーで脅威への対応レベルが定義されているような普遍的に標準化された「レベル」がありません。その代わりに、AIガバナンスでは、組織が特定のニーズに適応したり採用したりできる、さまざまな主体によって開発された構造化アプローチとフレームワークが用意されています。
組織は、ガバナンス実践方法を確立するために、いくつかのフレームワークとガイドラインを使用できます。最も広く使用されているフレームワークには、NIST AIリスク管理フレームワーク、OECD人工知能原則、欧州委員会の信頼できるAIに関する倫理ガイドラインなどがあります。これらのフレームワークは、透明性、説明責任、公平性、プライバシー、セキュリティー、安全性など、さまざまな分野における指針を提供します。
ガバナンスのレベルは、組織の規模、使用されているAIシステムの複雑さ、組織が事業を営んでいる規制環境により異なります。
これらのアプローチの概要は次のとおりです。
これは、組織の価値観と原則に基づいたガバナンスへの最も労力の少ないアプローチです。倫理審査委員会や内部委員会などで非公式のプロセスが存在する可能性はありますが、ここにはAIガバナンスの正式な構造やフレームワークはありません。
これは略式のガバナンスからのワンランク上のガバナンスで、ここでは、AIの開発と使用のための特定のポリシーと手順が策定されます。このタイプのガバナンスは、特定の課題やリスクに対応して開発されることが多く、包括的または体系的ではない場合があります。
これは最高レベルのガバナンスで、包括的なAIガバナンスのフレームワークの開発が含まれます。このフレームワークは組織の価値観と原則を反映しており、関連する法律や規制に準拠しています。正式なガバナンスのフレームワークには、通常、リスク評価、倫理審査、監視プロセスが含まれます。
AI駆動型オートメーションが医療、金融から交通、公共サービスに至る多岐にわたる分野で普及するにつれて、AIガバナンスはますます重要になります。AIのオートメーション機能は、効率性、意思決定能力、イノベーションを大幅に向上させることができますが、同時に説明責任、透明性、倫理的配慮の面に関連する課題ももたらします。
AIガバナンスには、これらの課題に対処するためのポリシー、ガイドライン、フレームワークを含む堅牢なコントロール構造の確立が含まれます。また、AIシステムを継続的に監視および評価するメカニズムをセットアップし、確立された倫理規範と法的規制を確実に遵守することも必要になります。
AIにおける効果的なガバナンス構造は学際的であり、テクノロジー、法律、倫理、ビジネスなど、多岐にわたる分野の利害関係者が関与することになります。AIシステムがより洗練され、社会の重要な側面に組み込まれるようになるにつれて、AI開発とその社会的影響を進むべき方向に導き、形成する上でのAIガバナンスの役割がますます重要になっています。
AIガバナンスのベスト・プラクティスには、単なるコンプライアンスを超えた、AIアプリケーションの監視と管理のためのより堅牢なシステムを包含するアプローチが含まれています。大規模な企業であれば、AIガバナンス・ソリューションにより、AIシステムに対する広範な監視とコントロールが可能になるはずです。以下は、検討すべきロードマップの一例です。
ビジュアル・ダッシュボード:AIシステムの健全性とステータスに関するリアルタイムの最新情報を提供するダッシュボードから明確な概要を確認でき、迅速にアセスメントを行えます。
健全性スコア・メトリクス:直感的で理解しやすいメトリクスを使用してAIモデルの全体的な健全性スコアを評価し、監視を簡素化します。
自動監視:モデルが正しく倫理的に機能することを促進するために、バイアス、ドリフト、パフォーマンス、異常の自動検知システムを採用します。
パフォーマンス・アラート:モデルが事前定義されたパフォーマンス・パラメーターから逸脱した場合にアラートが送信されるように設定し、タイムリーな介入を可能にします。
カスタム・メトリクス:組織の主要業績評価指標(KPI)としきい値に合わせてカスタム・メトリクスを定義し、AIがもたらす影響がビジネス目標に貢献することを促進します。
監査証跡:説明責任を果たし、AIシステムの決定と動作を簡単に確認できるよう、アクセスしやすいログと監査証跡を維持します。
オープンソース・ツールの互換性:柔軟性とコミュニティー・サポートを活用するには、さまざまな機械学習開発プラットフォームと互換性のあるオープンソース・ツールを選択する必要があります。
シームレスな統合:AIガバナンス・プラットフォームがデータベースやソフトウェア・エコシステムなどの既存インフラストラクチャーとシームレスに統合されるよう促進し、サイロ化を回避することで効率的なワークフローを可能にします。
これらのプラクティスを実践することで、企業は責任あるAIの開発、導入、管理をサポートする強固なAIガバナンスのフレームワークを確立することができ、AIシステムがコンプライアンスを遵守し、倫理基準や組織の目標に沿ったものであることを促進できるようになります。
AIガバナンスの実践と規制は、バイアスと差別を防ぐためにいくつもの国で採用されています。規制は常に流動的であることを覚えておくことが重要であり、複雑なAIシステムを管理する組織は、地域の法的フレームワークの進化に注意を払う必要があります。
欧州連合の人工知能法は、EU AI法または単純にAI法とも呼ばれ、欧州連合(EU)における人工知能(AI)の開発や使用を規定する法律です。この法律は、規制に対してリスクベースのアプローチを取り、AIがもたらすリスクに応じてAIに異なるルールを適用します。
世界初の包括的な AI フレームワークとされる EU AI 法は、一部の AI の使用を全面的に禁止し、その他の使用については厳格なガバナンス、リスク管理、透明性の要件を課しています。
この法律はまた、IBM® GraniteやMeta社のLlama 3オープンソース基盤モデルのような、汎用の人工知能モデルのルールも作成しています。罰金はコンプライアンス違反の種類に応じて、750万ユーロまたは世界の年間売上高の1.5%から、3,500万ユーロまたは世界の年間売上高の7%までの幅があります。
SR-11-7は、銀行業界における効果的かつ強力なモデル・ガバナンスを目的とした米国のモデル・ガバナンス基準です。1この規制では、銀行職員がモデル・リスク管理イニシアチブを全社的に適用したうえで、使用のために導入済み、導入のために開発中、または最近廃止済みのモデルのインベントリーを維持することが義務付けられています。
また、組織のリーダーは、解決しようとしていたビジネス目的をモデルが達成していること、モデルが最新のものであること、逸脱していないことを証明する必要もあります。モデルの開発と検証では、モデルに詳しくない人でもモデルの操作、制限、重要な前提を理解できるようにする必要があります。
カナダの自動意思決定に関する指令では、カナダ政府がAIを使用していくつかの部門の意思決定をどのように導いているかが説明されています。2この指令では、採点システムを使用して、市民にサービスを提供するために構築されたAIツールに求められる人間の介入、ピア・レビュー、監視、緊急時対応計画を評価しています。
高スコアのAIソリューションを構築する組織は、2回の独立したピアレビューを実施し、平易な言葉で公告を行い、人的介入によるフェールセーフを開発し、システムの定期的なトレーニング・コースを確立する必要があります。カナダの自動意思決定に関する指令は、カナダ独自のAI開発用ガイドラインであるため、この規制は米国のSR 11-7のように企業には直接的な影響を及ぼしません。
2021年4月、欧州委員会はAIパッケージを発表しました。これには、卓越性や信頼性、AIに関する法的なフレームワークの提案に対する欧州のアプローチの促進に関する声明が含まれています。3
これらの声明では、ほとんどのAIシステムは「最小リスク」のカテゴリーに該当しますが、「高リスク」と特定されたAIシステムはより厳しい要件の遵守が求められ、「容認できないリスク」とみなされたシステムは禁止されることを定めています。組織はこれらのルールに細心の注意を払う必要があり、これに違反した場合は罰金が科せられる可能性があります。
中国は2023年に生成AIサービスの管理に関する暫定措置を公布しました。同法では、生成AIサービスの提供と使用は「他者の正当な権利と利益を尊重」しなければならず「他者の心身の健康を危険にさらさず、他者の肖像権、名誉権、プライバシー権、個人情報権を侵害しない」ことが定められています。
アジア太平洋地域の他の国々も、AIを管理するためのいくつかの原則とガイドラインを発表しています。2019年、シンガポール連邦政府は民間部門におけるAI倫理の問題に対処するためのガイドラインを含むフレームワークを発表し、さらに最近では2024年5月に生成AIのガバナンスフレームワークを発表しました。日本、インド、韓国、タイもAI ガバナンスに関するガイドラインや法律の制定を検討しています。3
EUのAI規制法について、ビジネスに与える影響、準備すべきこと、リスクの軽減方法、規制とイノベーションのバランスを取る方法をご確認ください。
生成AIがもたらす新たな課題、AIモデルおよびMLモデルを制御する必要性、信頼性と透明性を高めた説明可能なAIフレームワークを構築する手順をご紹介します。
生成AIモデル向けの製品ポートフォリオを活用し、コンプライアンスに準拠した倫理的な運用を推進する方法について説明しています。
watsonx.governanceを使ってどのように公平性の確保やドリフトの管理、品質の維持、説明可能性の向上を行うかについて理解を深めます。
2,000の組織を対象に、AIへの取り組みについて調査を行い、何が機能し、何が機能していないのか、どうすれば前進できるのかを明らかにしました。
ユースケースに最適なAI基盤モデルを選択する方法について説明します。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。
統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。
1 「SR 11-7: Guidance on model risk management.」、 連邦準備制度理事会、ワシントンDC、銀行監督規制局、2011年4月4日。
2 「Canada's new federal directive makes ethical AI a national issue.」 Digital社、2019年3月8日。
3 「Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology」、Sidley法律事務所、2024年8月16日。