AIの解釈可能性とは

病院で患者のCTスキャンを調べる2人の医師

共同執筆者

Amanda McGrath

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

AIの解釈可能性とは

AIの解釈可能性は、人工知能(AI)モデルを動かす意思決定プロセスを人々がよりよく理解し、説明するのに役立ちます。

AIモデルは、データ入力、アルゴリズム、ロジック、データ・サイエンス、その他のプロセスの複雑なネットワークを使用して洞察を返します。モデルが複雑になればなるほど、モデルの設計と構築を行った人であっても、その洞察に至った手順を理解することが難しくなる可能性があります。解釈可能なモデルとは、その決定をユーザーが容易に理解できるモデルです。

AIの使用は拡大しています。大規模言語モデル(LLM)を使用するシステムは、スマート・ホーム・デバイスからクレジットカード詐欺の検出、ChatGPTやその他の生成AIツールの幅広い使用まで、日常生活の一部になりつつあります。非常に複雑なモデル(ディープラーニングニューラル・ネットワークを含む)が一般的になるにつれて、AIの解釈可能性がさらに重要になります。

さらに、AIシステムと機械学習アルゴリズムは、医療金融、および人生を変えるような重大な決定を伴うその他の業種・業務でますます普及しています。このようなリスクとメリットが同居している状況において、結果は公平で信頼できるものであると一般市民から信頼される必要があります。その信頼は、AIシステムがどのように予測に到達し、決定を行うのかが理解できるかどうかによって左右されます。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

ホワイトボックスモデルとブラックボックスモデル

ホワイトボックスAIモデルには、見やすく、理解しやすい入力とロジックがあります。たとえば、各ステップ間の明確な流れを示す基本的な決定木は、平均的な人にとって解読するのが難しくありません。ホワイトボックスモデルは、解釈しやすいより直線的な意思決定システムを使用する傾向がありますが、結果として精度が低下したり、魅力的な洞察やアプリケーションが少なくなったりする可能性があります。

ブラックボックスAIモデルはより複雑であり、内部の仕組みに対する透明性が低くなります。ユーザーは通常、モデルがどのようにして成果に到達するのかを知りません。このような複雑なモデルは、より正確で精度が高くなる傾向があります。しかし、それらは理解するのが困難または不可能であるため、信頼性、公平性、バイアス、その他の倫理的問題に関する懸念が伴います。ブラックボックス・モデルをより解釈しやすくすることは、その使用に対する信頼を構築する一つの方法です。

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

AIの解釈可能性とAIの説明可能性の比較

AIの解釈可能性は、AIモデルの内部の仕組みを理解することに重点を置いているのに対し、AIの説明可能性は、モデルの出力に関する理由を提供することを目的としています。

解釈可能性とは透明性に関するもので、モデルのアーキテクチャ、モデルが使用する機能、およびモデルがそれらを組み合わせて予測を行う方法をユーザーが理解できるようにします。解釈可能なモデルの意思決定プロセスは、人間が簡単に理解できます。解釈可能性を高めるには、内部オペレーションの開示を強化する必要があります。

説明可能性とは、多くの場合、モデルが予測を行った後に、検証、つまりモデルの出力に関する説明を提供することです。説明可能なAI(XAI)は、成果につながった要因を特定するために使用されます。さまざまな説明可能性の方法を使用して、複雑なプロセスと基礎となるデータ・サイエンスを自然言語を使用して人間が理解できるような方法でモデルを提示できます。

AIの解釈可能性が重要な理由

AIの解釈可能性は、モデルのデバッグバイアスの検知、規制へのコンプライアンスの確保、ユーザーとの信頼関係の構築に役立ちます。これにより、開発者やユーザーは、自分たちのモデルが人々やビジネスにどのような影響を与えるのか理解し、責任を持って開発することができます。

解釈可能性が重要である理由はいくつかあります。

  • 信頼
  • バイアスと公平性
  • デバッグ
  • 法規制への準拠
  • 知識の伝達

信頼

解釈可能性がなければ、ユーザーは何も分からないままになります。このような説明責任性の欠如によって、テクノロジーに対する一般市民の信頼が損なわれる可能性があります。利害関係者が、モデルがどのように意思決定を行うかを完全に理解していれば、その出力を受け入れる可能性が高くなります。モデルの解釈可能性は透明性と明快さをもたらすため、ユーザーは医療的診断や財務上の意思決定などの実際の用途において、安心してモデルに頼ることができます。

バイアスと公平性

トレーニングデータ内のバイアスは、AIモデルによって増幅される可能性があります。結果として生じる差別的な結果は、社会的不平等を永続化させるだけでなく、組織を法的リスクや評判のリスクにさらすことにもつながります。解釈可能なAIシステムは、モデルが人種、年齢、性別などの保護された特性に基づいて偏った決定を行っているかどうかを検知するのに役立ちます。解釈可能性により、モデル開発者は差別的なパターンを特定して軽減できるため、より公正な結果を確保することができます。

デバッグ

解釈可能な機械学習により、MLアルゴリズムとMLモデルの作成者はエラーを特定して修正できます。最初から100%正確な機械学習モデルはありません。AIの推論を理解していない場合のデバッグは非効率的でリスクの高いプロセスになります。MLモデルの仕組みを理解することで、開発者やデータ・サイエンティストは、不正確な予測の原因を特定し、モデルの性能を最適化できます。このプロセスにより、全体的な信頼性が向上し、最適化が促進されます。

法規制への準拠

米国の消費者信用機会均等法(ECOA)や欧州連合の一般データ保護規則(GDPR)などの一部の規制では、自動化システムによる決定に、透明性と説明可能性が求められます。また、欧州連合のEU AI法など、AIの開発と使用に関する基準を設定するAI特有の規制も増えています。解釈可能なAIモデルは、決定に対する明確な説明を提供することができるため、これらの規制要件を満たすのに役立ちます。解釈可能性は、監査の問題、賠償責任、データ・プライバシーの保護にも役立ちます。

知識の伝達

解釈可能性がなければ、開発者や研究者はAIの洞察を実行可能な結果に変換したり、変更を加えてテクノロジーを進歩させたりするのに苦労する可能性があります。解釈可能性により、モデルの基盤と決定に関する知識を利害関係者間で伝達し、その知識を他のモデル開発に役立てることが容易になります。

解釈可能性の種類

スタンフォード大学の研究者であるNigam Shah氏は、解釈可能性には主に3つの種類があり、エンジニアの解釈可能性、因果関係の解釈可能性、信頼を構築する解釈可能性を挙げています。1

エンジニアの解釈可能性

このタイプは、AIモデルが出力に達成した方法に焦点を当てます。これには、モデルの内部の仕組みを理解することが含まれ、モデルのデバッグまたは改善が必要な開発者や研究者に関係します。

因果関係の解釈可能性

このタイプは、モデルがその出力を行った理由に焦点を当てます。これは、モデルの予測に最も大きな影響を与える要因を特定し、これらの要因の変化が結果にどのように影響するかを明らかにするものです。

信頼を構築する解釈可能性

このタイプは、モデルの出力に対する信頼を構築する説明を提供することに重点を置きます。技術的な専門知識がないユーザーにも理解しやすく、共感できる方法でモデルの意思決定プロセスを提示することが含まれます。

解釈可能性の要因

AIモデルの解釈可能性に影響する特性としては、次のようなものがあります。

  • 本質的または事後
  • ローカルまたはグローバル
  • モデル固有またはモデル非依存

本質的または事後

本質的解釈可能性とは、決定木や線形回帰モデルなど、本質的に解釈可能なモデルを指します。そのシンプルな構造は理解しやすいものです。しかし、事後的な解釈可能性には、事前にトレーニングされたモデルに解釈方法を適用してその動作を説明することが求められます。事後解釈は、より複雑なモデルまたはブラックボックス・モデルに対して最適です。

ローカルまたはグローバル

ローカルな解釈は、個々の予測の説明に重点を置いており、モデルが特定の結果に達した理由を示すのに役立ちます。グローバルな解釈の目的は、データ・セット全体にわたるモデルの動作を理解し、全体的なパターンと傾向を示すことです。

モデル固有またはモデル非依存

モデル固有の解釈可能性の手法では、モデルの内部構造を利用して説明を行います。モデルに依存しない方法は、あらゆるタイプのモデルで機能します。

解釈可能性の方法

AIモデルで解釈可能性を確立するには、さまざまな方法があります。

一部のモデルは、単純であることから本質的解釈ができます。これらの本質的に解釈可能なモデルは、決定木、ルールベースのシステム、線形回帰などの単純な構造に依拠しています。人間は、線形モデルの意思決定パターンとプロセスを容易に理解できます。

より複雑なモデルでは、解釈手法を事前トレーニングされたモデルに適用して、モデルの出力を説明する事後解釈が必要になります。一般的な事後解釈方法には、次のようなものがあります。

  • ローカルに解釈可能なモデルに依存しない説明(LIME)
  • シャープレイの加法的説明(SHAP)
  • 部分依存プロット(PDP)
  • 個別条件付き期待値(ICE)プロット

ローカルに解釈可能なモデルに依存しない説明(LIME)

LIMEは、一度に一つの予測に焦点を当てることで、モデルの予測を説明するのに役立ちます。これは、特定の予測を目的とした複雑なモデルの動作を模倣する、より単純で解釈可能なモデルを作成することによって実現されます。機能の属性を使用して、特定の特性(形状、色、その他のデータ・ポイントなど)がモデルの出力に及ぼす影響を判断します。たとえば、特定の予測を行い、特徴量を少し変更したり調整することで、類似インスタンスを多数生成します。そこから、これらの「散らかった」特徴量とその成果に基づいて、より単純で解釈可能なモデルを作成します。つまり、LIMEは、複雑なモデルがどのように動作するかについて、単純化されたローカルな説明を提供します。

シャープレイ加法的説明(SHAP)

SHAPは、特徴のあらゆる組み合わせと、それらが予測にどのように影響するかを考慮した解釈可能性に対する協力的ゲーム理論的なアプローチです。これは、さまざまなシナリオにおける予測に対する貢献度に基づいて、各特徴に値(シャープレイ値と呼ばれます)を割り当てます。SHAPは、任意の機械学習システムで動作します。機械学習アルゴリズムによって提供される個々の予測に対する局所的な説明と、モデル全体に対するグローバルな説明の両方を提供します。ただし、SHAPは計算が複雑であるため、時間がかかり、コストがかかる方法になる可能性があります。

部分依存プロット(PDP)

PDPは、ある特徴がデータ・セット全体で、モデルの予測に平均してどのような影響を与えるかを示します。これらは、他のすべての特徴を一定に保ちながら、ある特徴とモデルの出力の間の関係を視覚化するのに役立ちます。この方法は、少数の特徴を解釈する場合や、利害関係者が特定の特徴のサブセットに焦点を当てたい場合に役立ちます。

個別条件付き期待値(ICE)プロット

ICEプロットは、予測結果が特定の特徴にどの程度依存するかを示します。これらはPDPと似ていますが、データ・セット全体の平均ではなく、個々のインスタンスにおけるある特徴とモデルの出力との関係性を示します。たとえば、変動性を強調したり、あるインスタンスレベルで特徴間の相関関係を示したりすることで、モデルの動作をより詳細に把握できるため、PDPを補完できます。また、コンピューター・サイエンスの研究者や利害関係者がモデルのオペレーションにおける外れ値や異常なパターンを特定したい場合にも役立ちます。

解釈可能性:例とユースケース

AIの解釈可能性は、AIモデルを使用して個人や社会に影響を与える意思決定を行うどの業種・業務においても重要です。AIの解釈可能性が関連する業種・業務には、次のようなものがあります。

ヘルスケア

医療関係者は、診断、治療法の推奨、研究に人工知能を使用します。解釈可能性は、医師や患者がAIモデルの決定を信頼して理解し、AIモデルの推論におけるバイアスやエラーを特定するのに役立ちます。

財務

金融専門家はAIを使用して不正行為を検知し、リスクを定量化し、信用スコアを割り当て、投資の提案を行うことができます。金融・銀行業における規制遵守と監査には、解釈可能性が不可欠です。また、融資の承認やリスク管理などの活動に関するモデルの意思決定プロセスを理解することで、結果の偏りを防ぐことができます。

刑事司法

刑事司法部門は、犯罪現場、DNA、法医学的証拠、地域または全国の犯罪パターンをAIを使用して分析できます。また、ユーザーはAIを利用して判決の提案をしたり、その他の日常的な司法業務を実行したりする場合もあります。公平性、正確性、説明責任性を確保するには、解釈可能性が不可欠です。

人事

一部の人事部門では、履歴書の審査や候補者の評価にAIを使用しています。解釈可能性は、初期の採用プロセスにおける差別を防ぐ方法の一つです。

保険

保険業界では、リスクの評価、保険金請求の処理、価格設定のために人工知能を使用しています。解釈可能性は、顧客が保険料を理解し、保険会社がその決定について説明する際に役立ちます。

カスタマー・サポート

マーケティング、営業、カスタマー・サービス部門がAI搭載のチャットボットに依存するケースが増えるにつれ、解釈可能性は重要な安全策となります。チャットボットが推奨や決定を行う理由を理解することで、AIシステムへの信頼が高まり、提供するサービスの改善やパーソナライズに役立ちます。

AI解釈可能性の課題と制限

解釈可能性には、いくつかの課題と制限があります。

多くの場合、モデルの性能と解釈可能性の間にはトレードオフが関係します。シンプルなモデルまたはホワイトボックス・モデルは解釈可能性が高くなりますが、ディープ・ニューラル・ネットワークなどの複雑なブラックボックス・モデルと比べて精度が低い場合があります。

また、標準化の欠如により、解釈可能性も損なわれます。異なる方法では同じモデルに対して異なる説明が得られるため、正式なフレームワークなしでそれらを比較および検証することが困難になります。そして、解釈可能性はしばしば主観的なものになります。あるユーザーにとっては簡単と思われる要素でも、別のユーザーにとっては不十分な場合があります。

一部の専門家は、場合によっては、解釈可能性は必要ではなく、また別の場合には生産性を低下させる可能性があると述べています。モデルが私的利用を目的としているか、重大な影響を持たない場合、あるいは問題がすでに多く認められている研究の対象となっている場合、解釈可能性の向上は冗長的または不必要である可能性があります。場合によっては、解釈可能性が高まると安全上の懸念が生じる可能性があります。透明性が高まると、悪意のある攻撃者がシステムをエクスプロイトしたり、ユーザーがシステムの有効性を損なう方法でシステムを操ったりする可能性があるためです。

関連ソリューション
IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンス・ソリューション

AIガバナンスが、どのように従業員のAIに対する信頼向上や、導入とイノベーションの加速、顧客からの信頼向上に役立つかをご覧ください。

AIガバナンス・ソリューションの詳細はこちら
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモの予約
脚注

1 Miller、Katharine。Should AI models be explainable? That depends.スタンフォード大学人間中心人工知能研究所。2021年3月。