人工知能(AI)は、国家安全保障のあり方も含め、社会を大きく変革しています。この認識のもと、国防総省(DoD)は2019年に統合人工知能センター(JAIC)を設立しました。JAICは、競争上の軍事的優位性を築き、人間中心のAI導入を促進し、DoDの運用のアジャイル性を高めるAIソリューションを開発するための前身組織であり、現在の最高デジタル人工知能局(CDAO)へと引き継がれています。しかし、DoDにおけるAIの導入・拡張・潜在能力の最大化における課題は、民間セクターと共通する部分が多くあります。
IBMの最近の調査によると、AI導入の成功を妨げる主な障壁は、AIスキルと専門知識の不足、データの複雑さ、倫理的懸念です。さらに、IBM Institute for Business Valueの調査によれば、経営幹部の79%がAI倫理を企業全体のAI戦略において重要と認識している一方で、AI倫理の共通原則を実務レベルで運用しているのは25%未満にとどまっています。AIモデルのアウトプットへの信頼を得ることは、社会技術的な課題であり、社会技術的な解決策が求められます。
AIの責任ある運用に注力する防衛リーダーは、リスク軽減のための技術的ソリューションやガードレールを導入する前に、まず共有用語—安全で責任あるAI使用を導く共通の文化—について合意する必要があります。DoDは、AIリテラシーの向上と信頼できる組織との連携を通じて、戦略目標と価値観に沿ったガバナンスを構築することで、これを達成するための強固な基盤を築くことができます。
組織の効率を向上させるには、担当者がAIを適切にデプロイできることが重要です。しかし同時に、AIのリスクや限界、適切なセキュリティ対策や倫理的ガードレールの実装方法を深く理解していることも同様に重要です。これらは国防総省や政府機関にとって、最低限の必須条件となります。
カスタマイズされたAI学習パスは、知識のギャップや必要なトレーニングを特定するのに役立ち、担当者が自分の役割に応じた知識を習得できるようにします。組織全体でAIリテラシーを高めることは、偽情報やディープフェイクなどの急速に拡散する危険な脅威に対し、迅速に評価・説明・対応するうえで不可欠です。
IBMでは、必須リテラシーの定義が役職によって異なることを踏まえ、組織内でAIリテラシーを個々にカスタマイズして適用しています。
信頼できるAIのリーダーとして、IBMは、クライアント組織の価値観に沿った責任あるAIの活用を導くガバナンスフレームワークを開発した経験があります。IBMは社内でのAI活用に関する独自のフレームワークも持っており、これにより顔認識技術の利用などの政策方針にも反映されています。
AIツールは現在、国家安全保障やデータ侵害、サイバー攻撃からの防御にも活用されています。しかし、AIは国防総省のその他の戦略目標も支援します。これにより、人材を補強し、より効果的に活用できるよう支援するとともに、リスキル(再教育)も促進します。また、戦闘、人道支援、平和維持、災害救助などの任務を担う兵士、水兵、空軍兵、海兵隊員を支える強靭なサプライチェーンの構築にも役立ちます。
CDAOには、責任あるAIツールキットの一部として、責任、公平性、追跡可能性、信頼性、管理可能性の5つの倫理原則が含まれています。米軍の既存の倫理フレームワークに基づき、これらの原則は軍の価値観に根ざしており、責任あるAIの実現を支援します。
これらの原則を実現するためには、モデルの機能要件および非機能要件、ならびにそれらのモデルに関するガバナンスシステムを考慮した、継続的かつ体系的な取り組みが必要です。以下に、CDAOの倫理原則を実務に落とし込むための総合的な推奨事項を示します。
「DoD担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切な判断と注意を行います。」
AIモデルは注意深く思慮深い人材によって開発されるべきだという点には誰もが同意しますが、組織はどのようにして人材を育成し、この役割を担わせるのでしょうか。そこで、次の施策を推奨します。
注:これらの責任指標は、AI専門家でない人でも解釈可能である必要があります(「数学的な説明」なしで理解できること)。
「同省はAI機能の意図しない偏りを最小限に抑えるための計画的な措置を講じます。」
AIモデルの使用が公平であり、差別的ではないことに誰もが同意していますが、実際にはこれをどのように実現するのでしょうか。そこで、次の施策を推奨します。
「同部門のAI機能は、関係担当者が透明性のある監査可能な方法論、データソース、設計手順およびドキュメンテーションを含む、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発され、デプロイされます。」
AIを使用してすべての担当者に明確なガイドラインを提供することで、トレーサビリティ(追跡可能性)を実務に落とし込みます。
IBMとそのパートナーは、高リスクのユースケースに不可欠な、包括的で監査可能なコンテンツを備えたAIソリューションを提供できます。
「同省のAI機能には、明示的かつ明確に定義された用途があり、そのような機能の安全性、セキュリティー、有効性は、ライフサイクル全体にわたって、定義された用途内でテストおよび保証されます。」
組織は、明確に定義されたユースケースを文書化し、コンプライアンスをテストすることで、信頼性を実務に落とし込みます。このプロセスを運用化・拡張するには、文化的な整合性が重要であり、直接の監督が常にあるわけではなくても、実務者が最高基準を遵守できるようにする必要があります。ベスト・プラクティスには以下が含まれます。
「同省は、意図しない結果を検知・回避する能力を備え、意図しない動作を示した導入済みシステムを使用停止または非アクティブ化できる能力を有しつつ、意図した機能を果たすAI機能を設計・開発します。」
この原則を実務に落とし込むには、以下の取り組みが必要です。
IBMは、信頼できるAI原則の推進において最前線に立ち、AIシステムのガバナンスに関する思想的リーダーとしての地位を確立してきました。IBMでは、長年掲げてきた信頼と透明性の原則に基づき、AIの役割は人間の専門知識や判断を置き換えるのではなく、補完・強化することであることを明確にしています。
2013年、IBMはAIおよび機械学習における説明可能性と透明性の取り組みを開始しました。IBMはAI倫理の分野でもリーダーであり、2015年にはAI倫理グローバル・リーダーを任命、2018年にはAI倫理委員会を設立しました。これらの専門家は、グローバルな事業活動においてIBMの原則とコミットメントが確実に守られるよう支援しています。2020年には、公正で安全かつ信頼できるAIの未来構築を支援するため、責任あるAIツールキットをLinux Foundationに寄付しました。
IBMは、責任あるAIおよび倫理的AIに関するメトリクス、標準、ベスト・プラクティスの策定に向けた世界的な取り組みを主導しています。具体的には以下の通りです。
責任あるAIの実現は、人間の価値観をテクノロジーに確実かつ一貫して反映させることを求められる、多面的な挑戦です。しかし、その努力には十分な価値があります。上記のガイドラインは、国防総省が信頼できるAIを実務に落とし込み、使命を遂行するうえで役立つと考えています。
IBMの支援についての詳細は、AIガバナンス・コンサルティング | IBMをご覧ください。
参考情報