AIリスク管理とは

2024年6月20日。

読了時間:8分

AIリスク管理とは、AI技術に関連する潜在的なリスクを体系的に特定し、軽減し、対処するプロセスです。これには、ツール、プラクティス、原則の組み合わせが含まれ、特に正式なAIリスク管理フレームワークの導入に重点が置かれています。

一般的に言えば、AIリスク管理の目標は、AIのメリットを最大化しながら、AIの潜在的な悪影響を最小限に抑えることです。

AIリスク管理とAIガバナンス

AIリスク管理は、 AIガバナンスのより広範な分野の一部です。AIガバナンスは、AIツールとシステムが安全かつ倫理的であることを確保し、その状態を維持するガードレールの役割を果たします。

AIガバナンスは包括的な分野ですが、AIリスク管理はその分野におけるプロセスです。AIリスク管理は、AIシステムを危害から守るために、脆弱性と脅威を特定して対処することに特に重点を置いています。AIガバナンスは、AI研究、開発、応用を方向付ける枠組み、ルール、基準を確立し、安全性、公平性、人権の尊重を確保します。

AIシステムのリスク管理が重要な理由

近年、さまざまな業界でAIシステムの使用が急増しています。世界的大手コンサルティング会社McKinsey社のレポート(ibm.com外部へのリンク)によると、2024年現在、組織が何らかの形で人工知能(AI)を使用している割合は2023年から17%増の72%となっています。

組織はイノベーション、効率性、生産性の向上といったAIのメリットを追求していますが、プライバシーの懸念、セキュリティー上の脅威、倫理的および法的問題といった潜在的なリスクに必ずしも取り組んでいるわけではありません。

リーダーはこの課題を十分に認識しています。最近のIBM Institute for Business Value(IBM IBV)の調査(ibm.com外部へのリンク)によると、リーダーの96%が、生成AIを導入するとセキュリティー侵害の可能性が高くなると考えています。同時に、IBM IBVは、現在の生成AIプロジェクトのうち、セキュリティーが確保されているのはわずか24%であることも発見しました。

AIリスク管理は、このギャップを埋め、組織がAI倫理やセキュリティーを損なうことなくAIシステムの可能性を最大限に活用できるようにするのに役立ちます。

AIシステムのリスクを理解する

他の種類のセキュリティーリスクと同様に、AIリスクは、潜在的なAI関連の脅威が組織に影響を及ぼす可能性と、その脅威によって生じる損害の程度を測る尺度として理解できます。

AIモデルとユースケースはそれぞれ異なりますが、AIのリスクは一般的に次の4つのカテゴリーに分類されます。

  • データ・リスク
  • モデル・リスク
  • オペレーション・リスク
  • 倫理的・法的リスク

これらのリスクが適切に管理されない場合、AIシステムや組織は、金銭的損失、評判の失墜、規制上の罰則、社会的信頼の低下、データ侵害などの重大な損害にさらされる可能性があります。

データ・リスク

AIシステムは、改ざんや侵害、バイアス、サイバー攻撃に対して脆弱なデータ・セットに依存しています。組織は、開発からトレーニング、導入に至るまで、AIのライフサイクル全体を通じてデータの完全性、セキュリティー、可用性を保護することで、こうしたリスクを軽減できます。

一般的なデータ・リスクには、次のようなものがあります。

  • データ・セキュリティーデータ・セキュリティーは、AIシステムが直面する最大かつ最も重要な課題の1つです。脅威アクターは、AIテクノロジーを支えるデータセットに侵入することで、不正アクセス、データ損失、機密性の侵害など、組織に深刻な問題を引き起こす可能性があります。
  • データプライバシーAIシステムは機密性の高い個人データを扱うことが多く、プライバシー侵害の危険にさらされ、組織にとって規制上および法的問題につながる可能性があります。
  • データの整合性:AIモデルの信頼性は、トレーニング・データの信頼性に依存します。歪んだデータや偏ったデータは、誤検知、不正確な出力、不適切な意思決定につながる可能性があります。

モデル・リスク

脅威アクターは、AIモデルを標的にして、盗難、リバース・エンジニアリング、または不正操作を行う可能性があります。攻撃者は、AIモデルの動作や性能を決定するコア・コンポーネントである、アーキテクチャー、重み、パラメーターを改ざんすることで、モデルの完全性を損なう可能性があります。

最も一般的なモデル・リスクには次のものがあります。

  • 敵対的攻撃:これらの攻撃は、インプット・データを操作してAIシステムを欺き、誤った予測や分類を行わせます。例えば、攻撃者は敵対的なサンプルを生成し、それをAIアルゴリズムに入力して、意図的に意思決定を妨害したり、偏見を生み出したりする可能性があります。
  • プロンプト・インジェクションこれらの攻撃は、大規模言語モデル(LLM)をターゲットとします。ハッカーは、悪意のあるインプットを正当なプロンプトとして偽装し、生成AIシステムを操作して機密データを漏洩させたり、誤った情報を拡散させたり、さらに悪い事態を引き起こしたりします。基本的なプロンプト・インジェクションでも、ChatGPTなどのAIチャットボットがシステム・ガードレールを無視し、言うべきでないことを言ってしまう可能性があります。
  • モデルの解釈可能性:複雑なAIモデルは解釈が難しい場合が多く、ユーザーが意思決定に至る経緯を理解するのが難しくなります。この透明性の欠如は、最終的には偏見の検出と説明責任を妨げ、AIシステムとそのプロバイダーに対する信頼を損なう可能性があります。
  • サプライチェーン攻撃:サプライチェーン攻撃は、脅威アクターが、開発、展開、保守の段階を含むサプライチェーン・レベルでAIシステムを標的にすることによって発生します。例えば、攻撃者はAI開発で使用されるサードパーティーのコンポーネントの脆弱性を悪用し、データ侵害や不正アクセスを引き起こす可能性があります。

オペレーション・リスク

AIモデルは魔法のように見えるかもしれませんが、基本的には洗練されたコードと 機械学習 アルゴリズムの産物です。すべてのテクノロジーと同様に、運用上のリスクの影響を受けます。これらのリスクに対処しないと、システム障害やセキュリティーの脆弱性が発生し、脅威の攻撃者がそれを悪用する可能性があります。

最も一般的な運用リスクには次のようなものがあります。

  • ドリフトまたは減衰:AIモデルでは、モデル・ドリフトが発生する可能性があります。これは、データの変更やデータポイント間の関係によってパフォーマンスが低下するプロセスです。例えば、不正検出モデルは時間の経過とともに精度が低下し、不正な取引が見逃される可能性があります。
  • 持続可能性の問題:AIシステムは、適切なスケーリングとサポートを必要とする新しい複雑なテクノロジーです。持続可能性を無視すると、これらのシステムの維持と更新に課題が生じ、パフォーマンスの一貫性がなくなり、運用コストとエネルギー消費が増加する可能性があります。
  • 統合の課題:AIシステムを既存のITインフラストラクチャーに統合することは、複雑で多くのリソースを必要とする場合があります。組織では、互換性、データサイロ、システムの相互運用性に関する問題に頻繁に遭遇します。AIシステムの導入により、サイバー脅威に対する攻撃対象領域が拡大し、新たな脆弱性が生じる可能性もあります。
  • 説明責任の欠如:AIシステムは比較的新しいテクノロジーであるため、多くの組織では適切な企業統治構造が整っていません。その結果、AIシステムには監視が不十分になることがよくあります。McKinsey社の調査(ibm.com外部へのリンク)によると、責任あるAIガバナンスに関する決定を下す権限を持つ評議会または取締役会を設置している組織はわずか18%です。

倫理的・法的リスク

組織がAIシステムの開発と導入において安全性と倫理を優先しない場合、プライバシー侵害を行い、偏った結果を生み出すリスクがあります。例えば、採用の決定に使用される偏ったトレーニング・データは、性別や人種に関する固定観念を強化し、特定の人口統計グループを他のグループよりも優遇するAIモデルを作成する可能性があります。

一般的な倫理的・法的リスクには以下のようなものがあります。

  • 透明性の欠如:AIシステムの透明性と説明責任を果たせない組織は、社会の信頼を失うリスクがあります。
  • 規制要件の遵守の失敗:GDPRなどの政府規制や業界固有のガイドラインに違反すると、高額の罰金や法的処罰を受ける可能性があります。
  • アルゴリズムのバイアス:AIアルゴリズムはトレーニング・データからバイアスを引き継ぐ可能性があり、偏った採用決定や金融サービスへの不平等なアクセスなど、差別的な結果につながる可能性があります。
  • 倫理的なジレンマ:AIの決定は、プライバシー、自律性、人権に関連する倫理的な懸念を引き起こす可能性があります。こうしたジレンマを誤って処理すると、組織の評判が損なわれ、社会の信頼が損なわれる可能性があります。
  • 説明可能性の欠如:AIにおける 説明可能性 とは、AIシステムによって行われた決定を理解し、正当化する能力を指します。説明可能性が欠如していると、信頼が損なわれ、法的調査や評判の失墜につながる可能性があります。例えば、LLMがトレーニング・データをどこから取得しているかを組織のCEOが把握していない場合、悪い報道や規制調査につながる可能性があります。

AIリスク管理フレームワーク

多くの組織は、AIライフサイクル全体にわたってリスクを管理するためのガイドラインと実践方法を合わせたAIリスク管理フレームワークを採用することでAIリスクに対処しています。

これらのガイドラインは、組織のAIの使用に関するポリシー、手順、役割、責任について概説したプレイブックと考えることもできます。AIリスク管理フレームワークは、組織がリスクを最小限に抑え、倫理基準を維持し、継続的な規制コンプライアンスを実現する方法でAIシステムを開発、デプロイ、維持するのに役立ちます。

最も一般的に使用されるAIリスク管理フレームワークには次のようなものがあります。

  • NIST AIリスク管理フレームワークAI
  • EU AI法
  • ISO/IEC規格
  • AIに関する米国大統領令

NISTAIリスク管理フレームワーク(AIRMF)

2023年1月、米国国立標準技術研究所(NIST)は、AIリスクを管理するための構造化されたアプローチを提供する AIリスク管理フレームワーク(AI RMF)(ibm.com外部へのリンク)を公開しました。それ以来、NIST AI RMFはAIリスク管理の基準となっています。

AI RMFの主な目標は、組織がリスクを効果的に管理し、信頼できる責任あるAI実践を促進する方法でAIシステムを設計、開発、展開、使用できるように支援することです。

公共部門と民間部門の協力により開発されたAI RMFは完全に任意であり、あらゆる企業、業界、地域に適用可能です。

フレームワークは2つに分かれています。1つの部分では、信頼できるAIシステムのリスクと特性の概要について、もう1つの部分であるAI RMFコアでは、組織がAIシステムのリスクに対処するのに役立つ4つの機能について、それぞれ説明しています。

  • ガバナンス:AIリスク管理の組織文化の構築
  • マップ:特定のビジネスコンテキストにおけるAIリスクのフレーミング
  • 測定:AIリスクの分析と評価
  • 管理:マッピングおよび測定されたリスクへの対処

EU AI法

EU人工知能規制法(EU AI法)は、欧州連合(EU)における人工知能の開発と使用を規定する法律です。EU AI規則は、規制に対してリスクベースのアプローチを採用しており、AIシステムが人間の健康、安全、権利にもたらす脅威に応じてさまざまなルールを適用したものです。EU AI規則では、ChatGPTやGoogle Geminiの土台となっている基盤モデルなど、汎用人工知能モデルの設計、トレーニング、展開に対するルールも制定されています。

ISO/IEC規格

国際標準化機構(ISO)と国際電気標準会議(IEC)は、AIリスク管理のさまざまな側面に対処する標準を開発(ibm.com外部へのリンク)しています。

ISO/IEC規格では、AIリスク管理における透明性、説明責任、倫理的配慮の重要性が強調されています。また、設計、開発から導入、運用まで、AIライフサイクル全体にわたってAIリスクを管理するための実用的なガイドラインも提供します。

AIに関する米国大統領令

2023年後半、バイデン政権はAIの安全性とセキュリティーを確保するための大統領令(ibm.com外部へのリンク)を発行しました。この包括的な指令は、厳密にはリスク管理フレームワークではありませんが、AIテクノロジーのリスクを管理するための新しい標準を確立するためのガイドラインを提供します。

この大統領令は、透明性、説明可能性、説明責任を備えた信頼できるAIの推進など、いくつかの重要な懸念事項を強調しており、多くの点で民間部門に前例をもたらし、包括的なAIリスク管理慣行の重要性を示しました。

AIリスク管理の組織での役割

AIのリスク管理プロセスは組織ごとに必然的に異なりますが、AIリスク管理プラクティスは、正常に実装されると、いくつかの共通の主要なメリットを提供できます。

セキュリティーの強化

AIリスク管理により、組織のサイバーセキュリティー体制とAIセキュリティーの使用を強化できます。

定期的なリスク評価と監査を実施することで、組織はAIライフサイクル全体にわたって潜在的なリスクと脆弱性を特定できます。

これらの評価に続いて、特定されたリスクを軽減または排除するための緩和戦略を実施できます。このプロセスには、データ・セキュリティーの強化やモデルの堅牢性の向上などの技術的な対策が含まれる場合があります。また、倫理ガイドラインの策定やアクセス制御の強化などの組織的な調整が行われる場合もあります。

脅威の検出と対応に対してこのようなより積極的なアプローチを採用することで、組織はリスクが拡大する前にリスクを軽減し、データ侵害の可能性とサイバー攻撃の潜在的な影響を軽減することができます。

意思決定の改善

AIリスク管理は、組織全体の意思決定の改善にも役立ちます。

統計的手法や専門家の意見を含む定性的分析と定量的分析を組み合わせて使用することで、組織は潜在的なリスクを明確に理解できます。この全体像の把握により、組織はリスクの高い脅威に優先順位を付け、AIの導入に関してより情報に基づいた意思決定を行うことができ、イノベーションへの欲求とリスク軽減の必要性のバランスを取ることができます。

法規制への準拠

機密データの保護に対する世界的な関心の高まりにより、一般データ保護規則(GDPR)カリフォルニア州消費者プライバシー法(CCPA)、EUAI法など、主要な規制要件と業界標準の作成が促進されました。

これらの法律に違反すると、高額の罰金や重大な法的処罰が科せられる可能性があります。AIリスク管理は、特にAIを取り巻く規制がテクノロジー自体とほぼ同じ速さで進化する中で、組織がコンプライアンスを達成し、良好な状態を維持するのに役立ちます。

運用のレジリエンス

AIリスク管理は、AIシステムを使用して潜在的なリスクにリアルタイムで対処できるようにすることで、組織が混乱を最小限に抑え、ビジネスの継続性を確保するのに役立ちます。AIリスク管理は、組織がAIの使用に関する明確な管理プラクティスと方法論を確立できるようにすることで、より高い説明責任と長期的な持続可能性を促進することもできます。

信頼と透明性の向上

AIリスク管理は、信頼と透明性を優先することで、AIシステムに対するより倫理的なアプローチを促進します。

ほとんどのAIリスク管理プロセスには、経営幹部、AI開発者、データ・サイエンティスト、ユーザー、政策立案者、さらには倫理学者など、幅広い関係者が関与します。ほとんどのAIリスク管理プロセスには、経営幹部、AI開発者、データサイエンティスト、ユーザー、政策立案者、さらには倫理学者など、幅広い関係者が関与します。

継続的なテスト、検証、監視

定期的なテストと監視プロセスを実施することで、組織はAIシステムのパフォーマンスをより適切に追跡し、新たな脅威をより早く検出できるようになります。この監視により、組織は継続的な規制コンプライアンスを維持し、AIリスクを早期に修復して、脅威の潜在的な影響を軽減できます。

AIリスク管理を企業の優先事項にする

AIテクノロジーは、仕事のやり方を効率化し、最適化する可能性を秘めていますが、リスクがないわけではありません。企業のITのほぼすべてが、悪意のある人の手に渡れば攻撃する武器となる可能性があります。

組織は生成AIを避ける必要はありません。他のテクノロジーツールと同じように扱えばいいのです。つまり、リスクを理解し、攻撃が成功する可能性を最小限に抑えるために積極的な措置を講じる必要があります。

IBM® watsonx.governanceを用いることで、組織は、1 つの統合プラットフォームでAIアクティビティを簡単に指示、管理、監視できます。IBM watsonx.governanceは、あらゆるベンダーの生成AIモデルを管理し、モデルの健全性と精度を評価し、主要なコンプライアンス・ワークフローを自動化できます。

著者