説明可能なAIが実動AIにどのようにメリットをもたらすか

説明可能なAIとは

説明可能な人工知能(XAI)とは、機械学習アルゴリズムによって作成された結果とアウトプットを人間のユーザーが理解し、信頼できるようにする一連のプロセスとメソッドです。 説明可能なAIは、AIモデル、予想される影響と潜在的なバイアスを説明するために使用されます。 AIを活用した意思決定におけるモデルの正確性、公平性、透明性、結果を明らかにするために役立ちます。 説明可能なAIは、組織がAIモデルを実動に移す際、信用と信頼性を構築するためにきわめて重要です。 AIの説明可能性は、AI開発に責任あるアプローチを採用する上でも役立ちます。

AIがさらに進歩するにつれて、人間には、アルゴリズムがどのように結果にたどり着いたかを理解し、さかのぼって調査することが求められます。 計算プロセス全体は、解釈が不可能な一般的に「ブラックボックス」と呼ばれるものになります。 これらのブラックボックス・モデルはデータから直接作成されます。 そして、アルゴリズムを作成するエンジニアやデータサイエンティストでさえも、ブラックボックスの内部で何か起きているのか、AIアルゴリズムがどのようにして特定の結果に到達したのかを理解したり説明したりすることはできません。

AI対応システムがどのように特定のアウトプットを導き出したかを理解することには、多くの利点があります。説明可能性により、開発者はシステムが予想通りに機能していることを確認できます。これは、規制上の基準を満たすために必要になるかもしれません。あるいは、影響を受ける人がその結果の正当性を検証したり変更したりするために重要になることもあります。¹

ノートPCで作業する専門家

説明可能なAIが重要である理由

モデルの監視とAIの説明責任を備えたAIの意思決定プロセス全体を理解し、それらを盲目的に信用しないことは、組織にとって非常に重要です。 説明可能なAIは、人間が機械学習(ML)アルゴリズム、ディープ・ラーニング、ニューラル・ネットワークを理解し、説明するために役立ちます。

MLモデルは、解釈が不可能なブラックボックスとみなされることがよくあります。²ディープ・ラーニングで使われてるニューラル・ネットワークは、人間にとって最も理解が困難なものでもあります。 しばしば人種、性別、年齢、場所に基づくバイアスは、 AIモデルをトレーニングする上で長年にわたるリスクでした。 さらに、実動データがトレーニング・データと異なるため、AIモデルのパフォーマンスにドリフトが見られる、またはパフォーマンスが低下することがあります。 そのため、このようなアルゴリズムを使用することによるビジネスへの影響を測定しながら、AIの説明可能性を促進するためのモデルを継続的に監視・管理することは、企業にとって極めて重要になります。 また、説明可能なAIは、エンド・ユーザーの信頼、モデルの監査適合性、AIの生産的な使用を促進するためにも役立ちます。 また、実働AIのコンプライアンス、法律、セキュリティー、評価のリスクを軽減します。

説明可能なAIは、実際の組織において、公平性、モデルの説明可能性、説明責任のあるAI手法を大規模に実装するための方法論であり、責任あるAIの導入における重要な要件の1つです。³責任をもってAIを採用するためには、信頼性と透明性に基づくAIシステムを構築することにより、AIアプリケーションやプロセスに倫理原則を組み込む必要があります。

ノートPCでビデオ・ミーティングに参加している人達を見ている人

継続的なモデル評価

説明可能なAIを使用することで、企業は、AIモデルの振る舞いを利害関係者が理解できるように支援しながら、トラブルシューティングを行い、モデルのパフォーマンスを向上します。 導入状況、公平性、品質、ドリフトに関するモデルの洞察を追跡することにより、モデルの振る舞いを調査することは、AIのスケーリングには不可欠です。 継続的にモデル評価を行うことで、モデルの予測を比較し、モデルのリスクを定量化し、モデルのパフォーマンスを最適化することができるようになります。 説明を生成するためのデータを使用してモデルの振る舞いに正の値または負の値を表示することで、モデル評価がスピード・アップします。 データとAIプラットフォームは、モデル予測について機能の属性を生成できます。そのためチームは、対話式のグラフとエクスポート可能な文書によってモデルの振る舞いを視覚的に調査することができます。

ノートPCで作業する専門家

説明可能なAIの価値

IBM Cloud Pak for Data の説明可能なAIとモデル監視に関する、Forrester社による調査結果をご覧ください。

説明可能なAIのメリット

信用と信頼性を備えたAIの運用化

実動AIへの信頼を構築します。 AIモデルを迅速に実動に移行します。 AIモデルの解釈可能性と説明可能性を確保します。 モデルの透明性と追跡可能性を向上させながら、モデル評価のプロセスを簡素化します。

AIから結果を得るまでの時間の短縮

ビジネス成果を最適化するため、モデルを体系的に監視・管理します。 モデルのパフォーマンスを継続的に評価して改善します。 継続的な評価に基づき、モデルの開発作業を微調整します。

モデル・ガバナンスのリスク軽減とコスト削減

AIモデルの説明可能性と透明性を維持します。 規制、コンプライアンス、リスク、その他の要件を管理します。 手動による検査とコストのかかるエラーの間接費を極力抑えます。 予期しないバイアスのリスクを軽減します。

説明可能なAIに対するIBMのアプローチ

IBMは、100年以上にわたり常に、限られた人ではなくすべての人に利益をもたらす力のあるイノベーションを求めて努力を続けてきました。 この理念はAIにも当てはまります。 IBMは、人間の意思決定に取って代わるのではなく、それを高めることができる信頼性の高いテクノロジーの創出と提供を目指しています。

AIには多数のアプリケーションにわたって貴重な洞察とパターンを提供するという約束がある一方、AIシステムの幅広い採用は、人々がAIの出す結果を信頼できるかどうかに大きく左右されます。 テクノロジーに対する人間の信頼は、その仕組みを人間が理解していること、またその安全性と信頼性の評価に基づきます。 そのため、説明可能なAIが重要になります。説明可能なAIに対するIBMのアプローチは、AIの信頼性と公平性を確保すること、説明できるようにすること、そしてそれが無害である保証できるように支援することです。

IBMのイノベーションの中心である、IBM Researchは、公平性、堅牢性、説明可能性、説明責任、価値調整の実現方法、またAIアプリケーションのライフサイクル全体にわたって、これらを統合する方法について、さまざまなアプローチを開発しています。 IBM Researchによる説明可能なAIのフレームワークとツール・セットは、IBM Cloud Pak for Dataプラットフォームに統合されているため、企業はIBMの最新のAIテクノロジーを、管理されセキュアかつ拡張性を備えた方法で活用できます。

オフィスの窓際に立って携帯電話を見ている人

説明可能なAIに関する5つの考慮事項

説明可能なAIに関する5つの考慮事項

説明可能なAIについて望ましい結果を得るために、以下を考慮してください。

公平性とバイアス排除:公平性を管理し、監視します。 潜在的なバイアスについて、お客様の導入環境を詳しく調査します。 

モデル内のドリフトの緩和:モデルを分析し、最も論理的な結果に基づいて推奨を行います。 モデルが意図した結果から逸脱した場合、アラートを出します。

モデルのリスク管理: モデル・リスクを定量化して軽減します。 モデルの実行が適切でない場合は警告が出されます。 偏差が継続する場合、何が発生したかを理解します。

ライフサイクルの自動化: データとAIの統合サービスの一部としてモデルを構築、実行、管理します。 プラットフォーム上でツールとプロセスを統合して、モデルを監視し、結果を共有します。 機械学習モデルの依存関係を説明します。

マルチクラウド対応:パブリッククラウド、プライベートクラウド、オンプレミスを含むハイブリッドクラウド全体でAIプロジェクトを導入します。 説明可能なAIに対する信用と信頼性を高めます。

近代的なガラスのビルのクローズアップ

IBM Cloud Pak for DataでAIの説明可能性を向上

IBM® Cloud Pak for Dataプラットフォームは、データとAIのサービスを統合された環境で提供するため、企業はデータとモデルの影響と関係を評価し、 AIの説明可能性を向上させることができます。 また、企業が、導入、公平性、品質、リスクについてのモデルの洞察を得る際にも役立ちます。 このソリューションは、対照的説明やLocal Interpretable Model-Agnostic Explanations(LIME)などのツールを備えたAIトランザクション、カテゴリー・モデル、イメージ・モデル、非構造化テキスト・モデルを説明するために役立ちます。 実動AIの成功には、最新の情報アーキテクチャー上でAIライフサイクルを自動化することによって、AIを説明可能にして透明性を備えることが不可欠です。

説明可能なAIについての詳細

説明可能なAIの仕組みとは

企業は、説明可能なAIと解釈可能な機械学習によって、AI技術の基本的な意思決定にアクセスでき、調整を行うことができるようになります。 エンド・ユーザーからAIが適切な意思決定を行っているという信頼を得るようにすることで、説明可能なAIは、製品またはサービスのユーザー体験を向上させることができます。 AIシステムはいつ、ユーザーが信用できる、信頼に値する決定を行うのでしょうか、またAIシステムで発生したエラーをどのように修正することができるのでしょうか。⁴

AIがさらに進歩しても、 AIモデルの結果が正確であることを確認するために、MLプロセスを理解して制御する必要があります。 AIとXAIの違い、AIをXAIに変えるために使われる手法と技法、そしてAIプロセスの解釈と説明の違いを見てみましょう。

AIとXAIの比較

「標準的な」AIと説明可能なAI(XAI)との正確な違いは何でしょうか。 XAIは、特定の技法と手法を実装して、MLプロセス中に行われるそれぞれの決定を確実に追跡して説明できるようにします。 一方、AIはしばしばMLアルゴリズムを使って結果に到達しますが、AIシステムのアーキテクトはどのようにアルゴリズムがその結果に到達したかを完全には理解していません。 これにより、正確性を確認することが難しくなり、制御、説明責任、監査適合性が失われる可能性があります。

説明可能なAIの技法

XAI技法のセットアップは、3つの主要な手法で構成されています。 予測精度と追跡可能性は技術的要件に対応し、決定事項の理解は、人間のニーズに対応します。 説明可能なAI(特に説明可能な機械学習)は、将来の兵士たちが、新世代の人工知能のマシン・パートナーを理解し、適切に信頼し、効果的に管理する場合に、非常に重要になります。

予測精度
精度は、日常的な業務でAIの使用がどの程度成功するかについての重要なコンポーネントです。 シミュレーションを実行し、XAIのアウトプットをトレーニング・データ・セットの結果と比較することにより、予測の精度を判別できます。 これに使用される最も一般的な技法はLocal Interpretable Model-Agnostic Explanations(LIME)です。これは、MLアルゴリズムによる分類の予測を説明します。

追跡可能性
追跡可能性は、XAIを完成させるためのもう1つの重要な技法です。 これは、たとえば、決定方法を制限し、MLの規則と機能の範囲を狭く設定することで達成されます。 追跡可能性を備えたXAI技法の例として、 DeepLIFT(Deep Learning Important FeaTures)があります。これは、各ニューロンの有効化をその参照ニューロンと比較し、有効化された各ニューロン間の追跡可能なリンクを表示し、それらの間の依存関係をも表示します。

決定事項の理解
これは人的要素です。 多くの人々がAIに対する不信感を持っていますが、AIを使用して効率的に作業をするためには、AIを信用できるようになる必要があります。 これは、AIを使用するチームに対して、AIが決定を行う方法と理由を理解できるように教育することで実現されます。

AIの説明可能性と解釈可能性

解釈可能性とは、観測者が決定の理由を理解できる程度のことです。 これは、人間がAIのアウトプットの結果を予測できる成功率である一方、説明可能性はさらに1歩進んで、AIがどのようにその結果に到達したかを調べます。

説明可能なAIの責任あるAIとの関係

説明可能なAIと責任あるAIには、同様の目的がありますが、異なったアプローチを取ります。 以下が説明可能なAIと責任あるAIの主な相違点です。

  • 説明可能なAIは、AIの結果が計算された後でその結果を調べます。
  • 責任あるAIは、計画段階でAIを調べ、結果を計算する前にAIアルゴリズムに責任を持たせます。
  • 説明可能なAIと責任のあるAIは、連携してより良いAIを作ることができます。

説明可能なAIについての詳細を参照するには、今すぐIBMidに登録して、IBM Cloud Pak for Dataの評価版の使用を開始してください。

説明可能なAIを実装する方法

以下の参考情報を使用して、説明可能なAIの実装方法を詳しくご覧ください。

オンライン・セミナー: モデルの管理方法と監視方法モデルが機能しない場合の対処法を説明します。
Webセミナーを見る(IBM外部へのリンク) →

学習パス: 信頼に基づくAI管理AIの結果をそのライフサイクル全体で追跡し計測する方法について説明します。また、変化するビジネスの状況に対するAIの適応と管理についても説明します。
チュートリアルを見る→

ハンズオン・ラボ: 機械学習モデルの監視公平性、精度、説明可能性のための評価モデルの段階的なプロセスを説明します。 
ラボを見る →

説明可能なAIのお客様事例

ヘルスケア

手術中の3人の医師のクローズアップ

診断、画像分析、リソースの最適化、医療診断を迅速化します。 患者の治療における意思決定の透明性と追跡可能性を向上します。 説明可能なAIにより、医薬品の承認プロセスを簡素化します。

金融

ノートPCで作業しながらクレジット・カードを手にしている人

透明性の高いローンとクレジットの承認プロセスにより、顧客体験を向上します。 信用リスク、資産管理、金融犯罪のリスク評価を迅速化します。 潜在的な苦情と問題の解決を加速します。 価格設定、金融商品の推奨、投資サービスの信頼性を向上します。

刑事司法

立ち入り禁止テープでマークされた区域の前の警察官

予測とリスク評価のプロセスを最適化します。 DNA分析、受刑者数の分析、犯罪予測に説明可能なAIを使用して、解決を加速します。 トレーニング・データとアルゴリズム内の潜在的なバイアスを検出します。

お客様向けご相談窓口

お客様ご相談窓口

初期費用やお客様の要件に合わせた構成についてもご相談可能です。
ビジネスでのAI 活用のご相談がございましたら、お気軽にお問い合わせください。

脚注

¹「説明可能なAI(Explainable AI)」英国王立協会、 2019年11月28日(IBM外部へのリンク)
²「説明可能な人工知能(Explainable Artificial Intelligence)」Jaime Zornoza、2020年4月15日 (IBM外部へのリンク)
³「説明可能な人工知能(XAI):「責任ある AI」に対する概念、分類、機会、課題(Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI)」ScienceDirect、2020年6月(IBM外部へのリンク)
⁴「説明可能なAIを理解する(Understanding Explainable AI)」 Ron Schmelzer(Forbes寄稿者)、2019年7月23日(IBM外部へのリンク)
⁵「説明可能な人工知能(XAI)(Explainable Artificial Intelligence(XAI))」 米国 米国国防高等研究計画局(DARPA)、Matt Turek博士(IBM外部へのリンク)