ホーム topics 説明可能なAI 説明可能なAIとは
IBMの説明可能なAIソリューションの詳細はこちら AI関連の最新情報の購読
以下のクラウド、円グラフ、グラフのピクトグラムのコラージュを使用したイラスト
説明可能なAIとは

説明可能な人工知能(XAI)は一組のプロセスと方法で、機械学習アルゴリズムで生成した結果とアウトプットを、人間のユーザーが理解し、信用できるようにします。

説明可能なAIは、AIモデルとその影響および潜在的なバイアスを説明するときに使用されます。これは、AI駆動型の意思決定におけるモデルの精度、公平性、透明性と結果の特徴づけに役立ちます。AIモデルを本番環境で稼働する際に、説明可能なAIは組織の信頼と信用の構築に不可欠となります。また、AIの説明可能性は、組織がAI開発において責任あるアプローチを採用する際にも役立ちます。

AI が高度に進化するにつれて、アルゴリズムが結果を導く仕組みへの理解とリトレースという課題が人間に突きつけられます。計算プロセス全体が、一般的に「ブラックボックス」と呼ばれる、解釈不可能なものへと変化しています。これらのブラックボックス・モデルはデータから直接生成されます。そして、アルゴリズムを作成したエンジニアやデータ科学者であっても、このモデルの中で実際に起きていることも、AI アルゴリズムが特定の結果に到達する仕組みも、説明はおろか理解すらできない状況です。

AI 対応システムが特定の結果を導き出す仕組みを理解することには、多くの利点があります。 説明可能性は、システムが期待通りに作動していることを開発者が確信する際に役立つ可能性があり、規制基準を満たすために必要な場合もあり、意思決定に影響を受けた人たちがその結果に異論を唱えたり、変更したりする際に重要な可能性もあります。

エンタープライズAIを拡張するために、AIのガバナンスがビジネス上不可欠である理由

特にAIガバナンスやリスク管理ソリューションの欠如など、AI導入の障壁について学びましょう。

関連コンテンツ

データリーダー向けガイドを読む

説明可能な AI が重要な理由

組織にとって、AI のモデル監視と説明責任を備え、AI の意思決定プロセスを闇雲に信用せずに、AI の意思決定プロセスを完全に理解することが不可欠です。説明可能な AI は、機械学習(ML)アルゴリズム、ディープラーニング、ニューラル・ネットワークを、人間が理解して説明するのに役立ちます。

ML モデルは、解釈不可能なブラックボックスとして認識されることが多々あります。²ディープラーニングで使用されるニューラル・ネットワークは、人間にとって最も理解し難いものの 1 つです。多くの場合に人種、ジェンダー、年齢、地域に基づいて発生するバイアスは、長い間 AI モデルの学習におけるリスクでした。さらに、実稼働データが訓練データと異なるため、AI モデルのパフォーマンスが逸れたり低下する可能性があります。これにより、このようなアルゴリズムを使用することで生じる事業への影響を測りながら、AI の説明可能性を促進するための継続的なモデルの監視と管理が事業体にとって不可欠となります。また、説明可能な AI はエンドユーザーの信頼、モデルの可監査性、生産的な AI 利用を促進するのにも役立ちます。さらに、実稼働 AI のコンプライアンス、法律、セキュリティー、評判のリスクも軽減します。

説明可能な AI は、責任ある AI を実装する際に重要な要件の 1 つであり、実際の組織における公平性、モデルの説明可能性、説明責任を備えた AI メソッドの大規模な実装のための方法論でもあります。³責任を持って AI を導入するためには、組織は信頼と透明性の上に AI システムを構築して、AI アプリケーションとプロセスに倫理原則を組み込む必要があります。

一般提供開始:watsonx.governance

サード・パーティーのプラットフォーム上に構築された生成AIのための、責任ある透明で説明可能なワークフローを加速します。

AI 倫理の詳細はこちら
説明可能な AI の仕組み

説明可能な AI と解釈可能な機械学習によって、組織は AI テクノロジーの基礎となる意思決定へのアクセスを増やすことが可能で、調整を行う権限が与えられます。説明可能な AI は、AI が良い決断を下すというエンドユーザーの信頼を勝ち取ることで、製品やサービスのユーザー体験を向上できます。ユーザーの信頼に足りる決断をAIシステムが確信的に提供できるのはいつで、エラーが生じた際に AI システムはどのようにそれを訂正するのでしょうか?⁴

AI が高度に進化していても、AI モデルの結果の正確性を保証するために、ML プロセスの理解とコントロールが相変わらず必要です。ここからは、AI と XAI の相違、AI を XAI に変えるために使用される方法と技術、AI プロセスの解釈と説明の相違について見て行きましょう。

AI と XAI を比較してみる
「通常」の AI と説明可能な AI の違いは何でしょうか?XAI は特定の技術と方法を用いて、ML プロセス中に行われた意思決定をすべて追跡でき、説明できるようにします。一方 AI は、ML アルゴリズムを使って結果を導き出すことが多いのですが、AI システムの設計者は、このアルゴリズムが提示された結果をどのように導き出すのかについて完全に理解してるわけではありません。これにより、正確性の確認が難しくなり、コントロール、説明責任、可監査性の喪失が発生します。

説明可能な AI の技術
XAI の設定を形成するのは主に 3 つの方法です。つまり、AI が意思決定を理解して人間のニーズに対処する間の予測精度と追跡可能なアドレス・テクノロジーの要件です。一方、説明可能な AI は、特に説明可能な機械学習において、将来の兵士たちが、台頭する人工知能マシンのパートナー世代を理解し、適切に信頼し、効率的に管理するために不可欠となるでしょう。⁵

予測精度
日常業務における AI 活用の成功を左右する重要な要素が正確性です。シミュレーションを実行し、XAI のアウトプットと学習データセット内の結果を比較することで、予測精度を判断できます。これに最もよく使用される技術が Local Interpretable Model-Agnostic Explanations(LIME)で、ML アルゴリズムで分類子の予測を説明します。

追跡可能性
XAI を実現するもう 1 つの重要な技術が追跡可能性です。これは、例えば決定方法を制限し、ML ルールと機能のスコープを狭く設定すると達成可能です。XAI の追跡性技術の一例が DeepLIFE(ディープラーニングの重要機能)で、これはニューロンごとの活性化を該当する参照ニューロンと照らし合わせて、活性化されたニューロン間の追跡リンクを表示し、ニューロン間の依存関係までも表示します。

意思決定の理解
これは人的要因です。AI に懐疑的な人は数多くいますが、AI を効果的に使うとするならば、懐疑的であっても AI を信用する術を学ぶ必要があります。これは AI を使用して仕事をするチームを教育することで達成でき、教育を通して AI が意思決定を行う方法と理由への理解が深まります。

AI の説明可能性と解釈可能性の比較

解釈可能性とは、オブザーバーが意思決定の原因を理解できる度合いです。これは人間が AI アウトプットの結果を予測できる成功率で、一方の説明可能性はさらに一歩進んで、AI がどのようにしてその結果に到達したかに注目します。

説明可能な AI と責任ある AI はどのように関連するのでしょうか?

説明可能な AI と責任ある AI には類似した目標があるのですが、そのアプローチは異なります。説明可能な AI と責任ある AI の大きな違いは以下の通りです。

  • 説明可能な AI は、結果が算出されたあとで AI 結果に注目します。
  • 責任あるAIは、結果を算出する前に、AI アルゴリズムに引き受けさせる計画段階で AI に注目します。
  • 説明可能な AI と責任ある AI は協働して AI を向上できます。
継続的なモデルの評価

説明可能な AI を使用すると、事業体はステークホルダーに対して AI モデルの動作の理解を促しながら、モデルのパフォーマンスのトラブルシューティングや改善を実行できます。デプロイメント・ステータス、公平性、品質、ドリフトに関するモデルのインサイトの追跡を通してモデルの動作を調査することが、AIのスケーリングに不可欠です。

継続的なモデルの評価により、モデル予測の比較、モデルリスクの数値化、モデル・パフォーマンスの最適化が強化されます。モデル動作のプラスとマイナスの数値を、説明の生成に使用したデータと共に表示して、モデルの評価をスピードアップします。A データと AI プラットフォームでモデル予測の機能特性を生成でき、これによりインタラクティブなチャートとエクスポート可能な資料と共に、チームはモデル動作を視覚的に調査できるようになります。

説明可能な AI のメリット
信頼と信用を持って AI を運用化する

実稼働 AI の信頼を構築します。自作の AI モデルを迅速に運用します。AI モデルの解釈可能性と説明可能性を確保します。モデルの透明性とトレーサビリティを向上しながら、モデル評価のプロセスを簡素化します。

AI 結果までの時間を短縮する

モデルを体系的に監視・管理して事業の成果を最適化します。モデルのパフォーマンスを継続的に評価・向上します。継続的な評価を基にモデル開発の労力を微調整します。

モデル管理のリスクとコストを軽減します。

自作の AI モデルの説明可能性と透明性を維持します。法規制、コンプライアンス、リスク、その他の要件を管理します。手動の検査とコストの高いエラーの間接費を最小限に抑えます。予期せぬバイアスのリスクを軽減します。

説明可能な AI の5つの留意点

説明可能な AI から期待通りの結果を導き出すには、以下の点に留意しましょう。

公平性とバイアス排除: 公平性を管理・監視します。デプロイメントをスキャンして潜在的なバイアスを見つけます。 

モデルのドリフト軽減: 自作モデルを分析し、最も論理的な結果に基づいて推奨事項を作成します。意図した結果からモデルが逸れた際にはアラートを出します。

モデルのリスク管理: モデルのリスクを数値化して軽減します。モデルのパフォーマンスが不適切な場合にアラートを鳴らします。逸脱が続いた際には何が発生したのかを理解します。

ライフサイクルの自動化: 統合されたデータと AI サービスの一部としてモデルを構築、実行、管理します。1 つのプラットフォームでツールとプロセスを一元化し、モデルの監視と結果の共有を実行します。機械学習モデルの依存関係を説明します。

マルチクラウド対応: パブリッククラウド、プライベートクラウド、オンプレミスを含むハイブリッドクラウド全体にAIプロジェクトをデプロイします。説明可能な AI で信頼と信用を促します。

説明可能な AI のユースケース
  • ヘルスケア:診断、画像分析、リソースの最適化、医療診断を加速します。患者の治療を決定する際の透明性と追跡可能性を向上します。説明可能な AI を使用して医薬品承認プロセスを合理化します。
  • 金融サービス:透明性の高いローンとクレジットの承認プロセスで顧客体験を向上します。信用リスク、資産管理、金融犯罪リスクの評価をスピードアップします。潜在的な苦情や問題に対する解決を加速します。料金体系、商品の推奨、投資サービスに対する信頼を高めます。
  • 刑事司法:予測とリスク評価のプロセスを最適化します。DNA 分析、刑務所の人口分析、犯罪予測に関する説明可能な AI を用いて、解決を加速します。学習データとアルゴリズムの潜在的なバイアスを検知します。
関連ソリューション
watsonx.governance

AIガバナンスのためのIBM watsonx.governanceツールキットは、組織のAI活動を指揮、管理、監視し、ソフトウェアの自動化を採用することで、リスクの軽減、規制要件への対応、生成AIと機械学習モデルの両方の倫理的な懸念に対処する能力を強化します。

watsonx.governanceはこちら
IBM Cloud Pak for Data

AIのライフサイクルを自動化するためにアップデートします。ほとんどの場所にある AI サービスとデータにガバナンスとセキュリティーを追加します。

詳細はこちら
IBM Watson Studio

信頼と透明性でAIを構築・拡張します。説明可能なAIを常に監視しながら、AIモデルを構築、実行、管理します。

詳細はこちら
IBM Knowledge Catalog

アクティブなメタデータと指針管理によって裏付けされたエンドツーエンドのデータカタログで、データとAIモデルを管理します。

詳細はこちら
参考情報 AI ガバナンスの緊急性

AI ガバナンスの3段階アプローチをご確認ください。倫理的な AI の監視が可能なガバナンス・システムの構築方法に関するインサイトをご覧ください。

監視用のモデルを準備する

モデル監視の設定と実行についてご覧ください。信用リスクのサンプル・モデルを用いて、デプロイメントを選択し、ペイロード・ロギングのデータタイプを設定します。

説明可能な AI の価値を調査する

Forrester Consulting 社は、説明可能な AI とモデル監視をデプロイする企業の予測投資収益率を調査しています。

信頼と透明性で AI を拡張する

ルフトハンザ社は AI ライフサイクル・オートメーションとドリフトおよびバイアスの軽減で、顧客体験と航空会社の効率を向上させています。

次のステップ

生成モデルと機械学習モデルの両方のライフサイクル全体にわたって、責任があり、透明性があり、説明可能な AI ワークフローを加速します。組織のAI活動を指揮、管理、監視し、拡大するAI規制をより適切に管理し、リスクを検出、軽減します。

watsonx.governanceの詳細はこちら ライブ・デモを予約する
脚注

¹「説明可能なAI 」(ibm.com外部へのリンク) 英国王立協会、2019年11月28日。

²「説明可能な人工知能」(ibm.com外部へのリンク) Jaime Zornoza氏、2020年4月15日。

³「説明可能な人工知能(XAI):責任あるAIに向けた概念、分類法、機会、課題」(ibm.com外部へのリンク) ScienceDirect、2020年6月。

⁴「説明可能な人工知能の理解」(ibm.com外部へのリンク) Ron Schmelzer氏、Forbesへの寄稿、2019年7月23日。

⁵ 「説明可能な人工知能(XAI) 」(ibm.com外部へのリンク) Matt Turek博士、米国国防高等研究計画局(DARPA)。