防衛分野における「責任あるAI」原則の実装

机に向かって座り、デスクトップ画面を指しながら議論している同僚たち

人工知能(AI)は、国家安全保障のあり方も含め、社会を大きく変革しています。この認識のもと、国防総省(DoD)は2019年に統合人工知能センター(JAIC)を設立しました。JAICは、競争上の軍事的優位性を築き、人間中心のAI導入を促進し、DoDの運用のアジャイル性を高めるAIソリューションを開発するための前身組織であり、現在の最高デジタル人工知能局(CDAO)へと引き継がれています。しかし、DoDにおけるAIの導入・拡張・潜在能力の最大化における課題は、民間セクターと共通する部分が多くあります。

IBMの最近の調査によると、AI導入の成功を妨げる主な障壁は、AIスキルと専門知識の不足、データの複雑さ、倫理的懸念です。さらに、IBM Institute for Business Valueの調査によれば、経営幹部の79%がAI倫理を企業全体のAI戦略において重要と認識している一方で、AI倫理の共通原則を実務レベルで運用しているのは25%未満にとどまっています。AIモデルのアウトプットへの信頼を得ることは、社会技術的な課題であり、社会技術的な解決策が求められます。

AIの責任ある運用に注力する防衛リーダーは、リスク軽減のための技術的ソリューションやガードレールを導入する前に、まず共有用語—安全で責任あるAI使用を導く共通の文化—について合意する必要があります。DoDは、AIリテラシーの向上と信頼できる組織との連携を通じて、戦略目標と価値観に沿ったガバナンスを構築することで、これを達成するための強固な基盤を築くことができます。

AIリテラシーはセキュリティー確保に欠かせないもの

組織の効率を向上させるには、担当者がAIを適切にデプロイできることが重要です。しかし同時に、AIのリスクや限界、適切なセキュリティ対策や倫理的ガードレールの実装方法を深く理解していることも同様に重要です。これらは国防総省や政府機関にとって、最低限の必須条件となります。

カスタマイズされたAI学習パスは、知識のギャップや必要なトレーニングを特定するのに役立ち、担当者が自分の役割に応じた知識を習得できるようにします。組織全体でAIリテラシーを高めることは、偽情報やディープフェイクなどの急速に拡散する危険な脅威に対し、迅速に評価・説明・対応するうえで不可欠です。

IBMでは、必須リテラシーの定義が役職によって異なることを踏まえ、組織内でAIリテラシーを個々にカスタマイズして適用しています。

戦略目標の達成支援と価値観との整合

信頼できるAIのリーダーとして、IBMは、クライアント組織の価値観に沿った責任あるAIの活用を導くガバナンスフレームワークを開発した経験があります。IBMは社内でのAI活用に関する独自のフレームワークも持っており、これにより顔認識技術の利用などの政策方針にも反映されています。

AIツールは現在、国家安全保障やデータ侵害サイバー攻撃からの防御にも活用されています。しかし、AIは国防総省のその他の戦略目標も支援します。これにより、人材を補強し、より効果的に活用できるよう支援するとともに、リスキル(再教育)も促進します。また、戦闘、人道支援、平和維持、災害救助などの任務を担う兵士、水兵、空軍兵、海兵隊員を支える強靭なサプライチェーンの構築にも役立ちます。

CDAOには、責任あるAIツールキットの一部として、責任、公平性、追跡可能性、信頼性、管理可能性の5つの倫理原則が含まれています。米軍の既存の倫理フレームワークに基づき、これらの原則は軍の価値観に根ざしており、責任あるAIの実現を支援します。

これらの原則を実現するためには、モデルの機能要件および非機能要件、ならびにそれらのモデルに関するガバナンスシステムを考慮した、継続的かつ体系的な取り組みが必要です。以下に、CDAOの倫理原則を実務に落とし込むための総合的な推奨事項を示します。

1. 責任

 

「DoD担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切な判断と注意を行います。」

AIモデルは注意深く思慮深い人材によって開発されるべきだという点には誰もが同意しますが、組織はどのようにして人材を育成し、この役割を担わせるのでしょうか。そこで、次の施策を推奨します。

  • AIの課題の社会技術的特性を認識する組織文化を育むこと。これは最初から伝えられるべきであり、モデルの設計や管理に組み込み、パフォーマンスを監視するために必要なプラクティス、スキル、思慮深さを認識する必要があります。
  • AIライフサイクル全体にわたる倫理的実践を詳細に整備すること。ビジネス(またはミッション)目標、データ準備・モデリング、評価、デプロイメントに対応して整備します。ここではCRISP-DMモデルが役立ちます。IBMのScaled Data Science Methodは、CRISP-DMを拡張した手法で、データサイエンティスト、産業組織心理学者、デザイナー、コミュニケーション専門家などの共同入力に基づき、AIモデルのライフサイクル全体でガバナンスを提供します。この手法は、データサイエンス、プロジェクト管理、設計フレームワーク、AIガバナンスのベストプラクティスを融合しており、チームは各段階で必要な文書化、協働先、次のステップなど、ライフサイクルの各段階での要件を容易に確認・理解できます。
  • 解釈可能なAIモデルメタデータ(ファクトシートなど)を提供すること。責任者、パフォーマンスベンチマーク(人間との比較)、使用されたデータや手法、監査記録(日付・担当者)、監査の目的と結果などを明示します。

注:これらの責任指標は、AI専門家でない人でも解釈可能である必要があります(「数学的な説明」なしで理解できること)。

2. 公平性

 

「同省はAI機能の意図しない偏りを最小限に抑えるための計画的な措置を講じます。」

AIモデルの使用が公平であり、差別的ではないことに誰もが同意していますが、実際にはこれをどのように実現するのでしょうか。そこで、次の施策を推奨します。

  • 多様な学際的チームに応用トレーニングの場を提供するためのセンター・オブ・エクセレンスを設立すること。潜在的な異種の影響(disparate impact)を特定するためのコミュニティーを提供します。
  • 監査ツールを使用してモデルに現れるバイアスを把握すること。反映が組織の価値観と一致している場合は、選択したデータと方法に関する透明性が重要です。反映が価値観と一致しない場合は、何かを改善する必要があることを示しています。バイアスによる潜在的な異なる影響を検出・軽減するには、モデルのトレーニングデータだけでなく、関係する人材やプロセスも確認する必要があります。例えば、モデルの適切な使用と不適切な使用が明確に伝えられていたかを検証します。
  • 公平性を測定し、サービスレベルに応じた機能的・非機能的要件を提供すること。これにより、公平性基準を実行可能なものにします。
  • デザイン思考フレームワークを活用して、AIモデルの意図しない影響を評価し、エンドユーザーの権利を決定し、原則を実務に落とし込むこと。デザイン思考の演習には、多種多様な人生経験を持つ人々を含めることが不可欠です。多様性が高いほど良い結果が得られます

3. トレーサビリティ

 

「同部門のAI機能は、関係担当者が透明性のある監査可能な方法論、データソース、設計手順およびドキュメンテーションを含む、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発され、デプロイされます。」

AIを使用してすべての担当者に明確なガイドラインを提供することで、トレーサビリティ(追跡可能性)を実務に落とし込みます。

  • ユーザーがAIシステムとやり取りしている際には、常にそのことを明確に示します。
  • AIモデルにコンテンツ基盤を提供します。ドメインの専門家がモデルのトレーニングに使用される信頼できるデータソースをキュレートし、維持できるようにします。モデルのアウトプットは、トレーニングされたデータに基づいて生成されます。

IBMとそのパートナーは、高リスクのユースケースに不可欠な、包括的で監査可能なコンテンツを備えたAIソリューションを提供できます。

  • 重要なメタデータを取得してAIモデルの透明性を確保し、モデルのインベントリーを管理しましょう。このメタデータが解釈可能であり、必要な情報が適切な担当者に提供されていることを確認してください。データの解釈には経験が必要となり、学際的な取り組みとなります。IBMの「Design for AI」グループは、AI におけるデータの重要な役割(およびその他の基本事項)について従業員を教育することを目的とし、そのフレームワークをオープンソースコミュニティに提供しています。
  • このメタデータをユーザーが容易に参照できるようにします(最終的には出力のソースで)。
  • AIは人間を補完・支援するべきであるため、人間参加型の仕組みを組み込み、AIシステムの運用中にフィードバックを提供できるようにします。
  • モデルがデプロイまたは調達される前に、異種の影響や安全性リスクを評価するプロセスとフレームワークを作成し、これらのリスクを軽減する責任者を指名します。

4. 信頼性

 

「同省のAI機能には、明示的かつ明確に定義された用途があり、そのような機能の安全性、セキュリティー、有効性は、ライフサイクル全体にわたって、定義された用途内でテストおよび保証されます。」

組織は、明確に定義されたユースケースを文書化し、コンプライアンスをテストすることで、信頼性を実務に落とし込みます。このプロセスを運用化・拡張するには、文化的な整合性が重要であり、直接の監督が常にあるわけではなくても、実務者が最高基準を遵守できるようにする必要があります。ベスト・プラクティスには以下が含まれます。

  • 公正で信頼性の高いアウトプットが不可欠である理由を常に再確認するコミュニティを確立します。多くの実務者は、単に善意を持つだけで異種影響は生じないと考えがちですが、これは誤りです。熱心なコミュニティリーダーによる実践的なトレーニングにより、参加者が自分の意見が聞かれていると感じ、組み込まれていると実感できることが重要です。
  • モデルのトレーニングに使用するデータのガイドラインや標準を基に、信頼性テストの根拠を構築します。精査が不十分な場合に何が起こり得るかの具体例を示すことが有効です。
  • モデル開発へのユーザーアクセスは制限しますが、プロジェクト開始時に多様な視点を収集し、バイアスの影響を軽減します。
  • AIライフサイクル全体でプライバシーおよびセキュリティチェックを実施します。
  • 定期的な監査において精度の評価指標を含めます。モデルのパフォーマンスを人間と比較して明確に示し、正確な成果が得られない場合は、責任者とユーザーが取れる対応を詳細に記載します。(これらすべては、解釈可能かつ参照可能なメタデータに組み込む必要があります。)

5. ガバナンス

 

「同省は、意図しない結果を検知・回避する能力を備え、意図しない動作を示した導入済みシステムを使用停止または非アクティブ化できる能力を有しつつ、意図した機能を果たすAI機能を設計・開発します。」

この原則を実務に落とし込むには、以下の取り組みが必要です。

  • AIモデルへの投資はデプロイメントで終了せず、モデルが期待どおりに動作し続けるよう専用のリソースを割り当てます。デプロイメント後だけでなく、AIライフサイクル全体にわたってリスクを評価・軽減することが重要です。
  • ガバナンス業務を遂行する責任者を指定し、必要な権限と資金を付与します。
  • コミュニケーション、コミュニティ構築、教育プログラムに投資します。watsonx.governanceなどのツールを活用して、AIシステムを継続的に監視します。
  • 上記で説明したように、AIモデルのインベントリーを取得・管理します。
  • すべてのモデルに対してサイバーセキュリティ対策を適用します。

IBMは、「信頼できるAI」の分野において先駆的な役割を果たしています

IBMは、信頼できるAI原則の推進において最前線に立ち、AIシステムのガバナンスに関する思想的リーダーとしての地位を確立してきました。IBMでは、長年掲げてきた信頼と透明性の原則に基づき、AIの役割は人間の専門知識や判断を置き換えるのではなく、補完・強化することであることを明確にしています。

2013年、IBMはAIおよび機械学習における説明可能性と透明性の取り組みを開始しました。IBMはAI倫理の分野でもリーダーであり、2015年にはAI倫理グローバル・リーダーを任命、2018年にはAI倫理委員会を設立しました。これらの専門家は、グローバルな事業活動においてIBMの原則とコミットメントが確実に守られるよう支援しています。2020年には、公正で安全かつ信頼できるAIの未来構築を支援するため、責任あるAIツールキットをLinux Foundationに寄付しました。

IBMは、責任あるAIおよび倫理的AIに関するメトリクス、標準、ベスト・プラクティスの策定に向けた世界的な取り組みを主導しています。具体的には以下の通りです。

  • バイデン大統領政権のAI大統領令策定に関与
  • 責任あるAIに関する70件以上の特許を開示・申請
  • IBM CEOのArvind Krishnaが、世界経済フォーラム(WEF)によるグローバルAIアクション・アライアンス運営委員会の共同議長を務める
  • アライアンスは、包括的で透明性の高い、信頼できるAIの世界的導入を加速させることに注力
  • WEFが発表した生成AIに関する2本の論文に共同執筆:価値創出と安全なシステム・技術の開発について
  • Linux Foundation AIの「Trusted AI(信頼できるAI)」委員会共同議長
  • NIST AIリスク管理フレームワークへの貢献、およびAIメトリクス、標準、テスト分野でのNISTとの連携

責任あるAIの実現は、人間の価値観をテクノロジーに確実かつ一貫して反映させることを求められる、多面的な挑戦です。しかし、その努力には十分な価値があります。上記のガイドラインは、国防総省が信頼できるAIを実務に落とし込み、使命を遂行するうえで役立つと考えています。

IBMの支援についての詳細は、AIガバナンス・コンサルティング | IBMをご覧ください。

参考情報

著者

Chuck Royal

Associate Partner | DTT

IBM Blog

Phaedra Boinodiris

Global Leader for Trustworthy AI

IBM Consulting

次のステップへ

AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

watsonx.aiの詳細はこちら デモの予約