責任あるAIとは

2024年2月6日

共同執筆者

Cole Stryker

Editorial Lead, AI Models

Gather

責任あるAIとは

責任ある人工知能(AI)とは、AIの設計、開発、デプロイメント、使用の指針となる一連の原則であり、組織とその利害関係者の力となり得るAIソリューションに対する信頼を構築します。責任あるAIには、AIシステムのより広範な社会への影響を考慮し、これらのテクノロジーを利害関係者の価値観、法的基準、倫理原則と整合させるために必要な対策が含まれます。責任あるAIは、このような倫理原則をAIアプリケーションとワークフローに組み込むことにより、AIの使用に伴うリスクとネガティブな結果を軽減しながら、肯定的な結果の最大化を目指しています。

本記事では、責任あるAIに関する一般的な見解を提供することを目的としています。IBM独自の見解については、「AI倫理」ページをご覧ください。

ビッグデータと計算能力の進歩に後押しされ2010年代に機械学習が広く採用されたにより、偏見、透明性、個人データの使用など、新たな倫理的課題がもたらされました。テクノロジー企業やAI研究機関がAIへの取り組みについて責任を持ってプロアクティブに管理しようとする中、AI倫理は独立した規律として登場しました。

Accentureの調査によると、「世界の消費者のうち、組織によるAIテクノロジーの実装方法を信頼している人はわずか35%です。そして77%の人が、組織はAIの誤用に対して責任を負わなければならないと考えています」1。このような状況において、AIの開発者は、強力で一貫した倫理的なAIフレームワークに基づいて取り組みを主導することが奨励されています。

これは、企業によって急速に採用されている新しいタイプの生成AIに特に当てはまります。責任あるAIの原則は、導入者がこれらのツールの可能性を最大限に活用するとともに、望ましくない結果を最小限に抑えるのに役立ちます。

AIは信頼に足るものでなければならず、利害関係者がAIを信頼するためには、AIの透明性が確保されていなければなりません。テクノロジー企業は、AIシステムを訓練するのは誰なのか、そのトレーニングでどのようなデータが使用されたのか、そして最も重要なことには、自社のアルゴリズムの推奨事項に何が盛り込まれているのかを明確にする必要があります。AIを重要な意思決定に活用しようとするのであれば、説明可能でなければなりません。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

信頼の柱

IBMは、これらの原則を明確にするためのフレームワークを開発しました。「信頼の柱」を構成する要素について見ていきましょう。これらの要素を組み合わせることで、「AIモデルの出力を信頼するには何が必要か」という質問に答えます。信頼できるAIは、IBMでは戦略上および倫理上の最重要課題ですが、これらの柱はあらゆる企業において、AIへの取り組みの指針として活用できます。

説明可能性

ディープ・ニューラル・ネットワークなどの機械学習モデルは、さまざまなタスクにおいて目覚ましい精度を達成しています。しかし、信頼できるAIの開発において、説明可能性と解釈可能性がこれまで以上に重要になっています。3つの原則は、説明可能性に対するIBMのアプローチを構成するものです。

予測精度

日常業務におけるAI活用の成功を左右する重要な要素が正確性です。シミュレーションを実行し、AIのアウトプットと学習データセット内の結果を比較することで、予測精度を判断できます。これに最もよく使用される技術がLocal Interpretable Model-Agnostic Explanations(LIME)で、機械学習アルゴリズムによる分類子の予測を説明します。

トレーサビリティ

トレーサビリティは、ユーザーが予測とプロセスを追跡できるかどうかを意味するAIの特性の1つで、データの文書化とモデルによる処理方法が含まれます。トレーサビリティは、説明可能性を実現するためのもう1つの重要な手法であり、例えば、決定方法を制限したり、機械学習のルールと機能の範囲を狭く設定したりすることで実現されます。

意思決定の理解

この問題は人が要因となります。実務家は、AIが結論を導き出す方法と理由を理解する必要があります。これは、継続的な教育を通じて実現されます。

公平性

機械学習モデルは、人間に関わる重要な意思決定に役立つ情報として、ますます使用されるようになっています。機械学習は、その性質上、統計的判別の一形態ですが、特権的な集団を体系的に有利な立場に置き、特定の恵まれない集団を体系的に不利な立場に置くことでさまざまな害をもたらす可能性がある場合、その判別は好ましいものではなくなります。ラベルの偏見やサンプリング不足や過剰サンプリングによるトレーニングデータのバイアスは、望ましくないバイアスを備えたモデルを生成します。

  • 多様で代表的なデータ

AIモデルの構築に使用されるトレーニング・データは、多様であり、モデルがサービスを提供する母集団を代表していることを確実にしなくてはなりません。代表不足やバイアスの回避のために、さまざまな人口統計グループからのデータを含める必要があります。トレーニング・データにバイアスがないか、定期的にチェックし、評価します。モデルをトレーニングする前に、ツールとメソッドを活用してしてデータ・セットに存在するバイアスを特定し、修正します。

  • バイアスを考慮したアルゴリズム

さまざまなサブグループがモデルの予測にどのような影響を受けるかを評価するために、公平性指標を開発プロセスに組み込ます。さまざまな人口統計グループにわたる成果の差異をモニタリングし、最小限に抑えます。アルゴリズムに制約を適用して、トレーニング中およびデプロイメント中、モデルが事前に定義された公平性基準に準拠するようにします。

  • バイアス軽減技術

リサンプリング、再重み付け、敵対的トレーニングなどの手法を活用し、モデルの予測におけるバイアスを軽減します。

  • 多様な開発チーム

AI開発に関与する学際的で多様なチームを編成します。多様なチームが異なる視点を取り入れることで、同じようなメンバーで構成されたチームでは見落としがちなバイアスを特定し修正することができます。

  • 倫理的なAI審査評議会

AIプロジェクトにおける潜在的なバイアスや倫理的影響を評価するために、審査評議会または審査委員会を設立します。こうした評議会は、開発ライフサイクル全体を通じた倫理的考慮事項に関するガイダンスを提供できます。

堅牢性

堅牢なAIは、インプットの異常や悪意のある攻撃などの異常な状況を効果的に処理し、意図しない危害の発生を防ぎます。また、明らかになっている脆弱性から保護することで、意図されたまたは意図しない干渉に耐えられるように構築されています。モデルへの依存度と機密情報や専有知識の蓄積としての価値が高まっていることにより、攻撃のリスクも増大しています。これらのモデルは、考慮し軽減されなければならない、特有のセキュリティー・リスクをもたらします。

透明性

ユーザーは、サービスがサービスの仕組みを把握し、その機能を評価し、その強みと限界を理解することができる必要があります。透明性が高まることにより、AI利用者は、AIモデルやサービスがどのように構築されたかをより深く理解することができます。これは、モデルのユーザーが特定のユースケースを適切かどうかを判断したり、AIが不正確で偏った結論を出す方法を評価したりするのに役立ちます。

プライバシー

GDPRを含む多くの規制フレームワークでは、組織が個人情報を処理する際に一定のプライバシー原則を遵守することを義務付けています。トレーニングされたMLモデルにアクセスできる悪意のあるサードパーティーは、トレーニング・データ自体にアクセスしなくても、モデルのトレーニングにデータが使用された人々に関する機微な個人情報を漏洩する可能性があります。個人情報が含まれている可能性のあるAIモデルを保護し、そもそもモデルにどのようなデータを入力するかを制御できることが重要なのです。

責任あるAIの導入

企業レベルで責任あるAIプラクティスを実施するには、AI開発と導入のさまざまな段階に対応する包括的なエンドツーエンドのアプローチが必要です。

責任あるAIの原則を定義する

企業の価値観と目標に沿った、一連の責任あるのAI原則を策定します。上記の「信頼の柱」にある重要な側面を考えてみましょう。このような原則は、AIの専門家、倫理学者、法律専門家、ビジネス・リーダーなど、さまざまな部門の代表者が参加する部門横断的なAI倫理チームによって開発・維持されます。

教育と意識向上

責任あるAIの実践について、従業員、利害関係者、意思決定者を教育するためのトレーニング・プログラムを実施しましょう。これには、潜在的なバイアス、倫理的配慮、責任あるAIを事業運営に組み込むことの重要性に対する理解を含みます。

AI開発ライフサイクル全体にわたる倫理観の浸透

データ収集やモデルのトレーニングからデプロイメント、継続的な監視に至るまで、AI開発パイプライン全体に責任あるAIプラクティスを組み込みます。AIシステムのバイアスに対処し、軽減するための手法を採用します。特に人種、性別、社会経済的地位などの機密属性に関し、モデルの公平性を定期的に評価します。AIシステムを説明可能にすることで、透明性の重要性を高めます。データ・ソース、アルゴリズム、意思決定プロセスに関する明確な文書を提供します。ユーザーと利害関係者は、AIシステムがどのように意思決定を行うかを理解できる必要があります。

ユーザーのプライバシー保護

エンド・ユーザーのプライバシーと機密データを保護するために、強力なデータガバナンスとAIガバナンスの実践と保護手段を確立します。データ利用方針を明確に伝え、インフォームド・コンセントを取得し、データ保護規則を遵守するのです。

人間による監視の促進

重要な意思決定プロセスにおける人間による監視メカニズムを統合します。責任の所在について明確な境界線を定義し、責任者を特定してAIシステムの結果に対する責任を負えるようにします。AIシステムの継続的な監視を確立し、時間の経過とともに生じうる倫理的懸念、バイアス、問題を特定し、対処します。AIモデルを定期的に監査し、倫理ガイドラインへの準拠を評価します。

外部とのコラボレーションの推奨

責任あるAIに取り組んでいる外部組織、研究機関、オープンソース・グループとのコラボレーションを促進します。責任あるAIの実践と取り組みの最新動向を常に把握し、業界全体の取り組みに貢献します。

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

関連ソリューション
IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
IBM OpenPages

統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。

OpenPagesの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモを予約
脚注

1 Technology Vision 2022、Accenture社、2022年。