ホーム Think トピック AIの透明性 AIの透明性とは
IBMのAI透明性ソリューションの詳細はこちら Thinkニュースレターに登録する
雲、円グラフ、グラフのピクトグラムをコラージュしたイラスト

公開日:2024年9月6日
執筆:Alexandra Jonker、Alice Gomstyn、Amanda McGrath

AIの透明性とは

AIの透明性は、人工知能(AI) システムがどのように作成され、どのように意思決定を行うのかについて、人々が情報にアクセスしてよりよく理解するのに役立ちます。

研究者はしばしば人工知能を「ブラックボックス」と表現するることがあります。これはテクノロジーの複雑化が進み、AIの成果を説明、管理、規制することがまだ難しいためです。AIの透明性を確保することは、このブラックボックスを開いて見せ、AIの成果と、モデルによる意思決定の方法をよりよく理解することにつながります。

金融、医療人事(HR)、警察など、ハイリスクな業種・業務での意思決定にAIモデルを活用する事例が増えています。これらのモデルがどのように訓練され、どのように結果を決定するのかについて人々の理解を深めることは、AIの決定とそれを使用する組織に対する信頼を築くことにつながります。

AI作成者は情報開示を通じて、透明性と信頼できるAIを実現できます。基礎となるAI アルゴリズムのロジックと推論、モデルのトレーニングに使用されるデータ入力、モデルの評価と検証に使用される方法などを文書化して共有することができます。これにより、利害関係者は公平性、ドリフト バイアスに対するモデルの予測の正確性を評価することができます。

責任あるAIには、高い透明性が不可欠です。責任あるAIとは、AIの設計、開発、デプロイメント、利用の指針となる一連の原則です。AIシステムのより広範な社会的影響と、そのテクノロジーを利害関係者の価値観、法的基準、倫理的要件に合わせるために必要な対策について考慮するものです。

企業向けAIガバナンス
AIの透明性が重要である理由

生成型AIチャットボットバーチャル・アシスタント推奨エンジンなどのAIアプリケーションは現在、世界中で毎日何千万人もの人々が使用しています。こうしたAIツールの仕組みの透明性は、このような低リスクの意思決定ではそれほど問題にはならないでしょう。モデルが不正確でバイアスがかかっていることが判明した場合でも、ユーザーは多少の時間や可処分所得を失う程度ですみます。

しかし、より多くの分野がより高リスクな意思決定にAIアプリケーションを採用しています。たとえばAIは現在、企業やユーザーが投資の選択医療診断採用の決定刑事判決などを行うのに利用されています。このような場合、偏ったアウトプットや不正確なAI出力がもたらす潜在的な結果は、はるかに危険です。人々は一生の貯蓄、キャリアのチャンス、または何年もの人生を失う可能性があります。

AIが自分たちに代わって効果的で公正な意思決定を下していることを利害関係者が信じられるようにするには、モデルが動作する仕組み、アルゴリズムのロジック、モデルが正確性と公平性に関するモデルの評価方法を可視化する必要があります。また、データ・ソースやデータの処理方法、重み付け方法、ラベル付け 方法など、モデルのトレーニングとチューニングに使用されるデータについて詳しく知らせる必要があります。

AIの透明性を確保することで、信頼の構築に加えて、AIエコシステム全体での知識の共有とコラボレーションが進み、AI開発のさらなる進歩に貢献します。また、デフォルトとして透明性を確保することで、組織はAIテクノロジーの使用によるビジネス目標の達成に集中することができ、AIの信頼性についてそれほど気にかける必要がなくなります。

AIの透明性に関する規制とフレームワーク

AIの使用を取り巻く規制要件は、常に進化しています。これらの規制を遵守し、モデル検証者、監査人、規制当局からの要求に対処するためには、モデルの透明性確保のプロセスが不可欠です。EUのAI法は、AIに対する世界初の包括的な規制フレームワークと見なされています。

EUのAI法


欧州連合(EU)の人工知能法(AI法)はリスクベースの規制アプローチを採用しており、AIがもたらすリスクに応じて異なるルールを適用しています。一部のAIの使用を完全に禁止し、その他については厳格なガバナンス、リスク管理、透明性についての要件を課しています。特定のタイプのAIには追加の透明性義務が課されています。例:

  • 個人と直接対話することを目的としたAIシステムは、文脈から明らかである場合を覗き、AIシステムと対話していることをユーザーに通知するように設計する必要があります。例えば、チャットボットは、それがチャットボットであることをユーザーに知らせるように設計しなければなりません。

  • テキスト、画像、その他特定のコンテンツを生成するAIシステムは、アウトプットに対してAI生成または改変を示す機械可読形式のマーキングをしなければなりません。ここには、例えば、ディープフェイク(ある人物が実際にはやっていない、または言っていないことを、あたかもやっているかのように見せるために加工された画像や動画)を生成するAIが含まれます。

EUで一般データ保護規則(GDPR)が導入されると、他の国や地域でも個人データ・プライバシーの規制を採用するようになりました。同じように、専門家はEUのAI法が世界中でAIガバナンス倫理基準の発展を促進すると予測しています。

AI透明性の指針となるフレームワーク



ほとんどの国や地域では、AIの使用に関する包括的な法律や規制はまだ制定されていません。ただし、いくつか広範なフレームワークが利用できるようになっています。これらには必ずしも強制力があるとは限りませんが、将来の規制や AIの責任ある開発と利用の指針として存在しています。注目すべき例としては:

  • The White House Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence(安全で信頼できる人工知能の開発と使用に関する大統領令): 2023年10月30日に公布されたこの大統領令では、いくつかのセクションで透明性が取り上げられています。第8条では、消費者、患者、乗客、学生の保護について具体的に取り上げています。ここでは独立した規制機関に対して、「AIモデルの透明性、およびAIモデルの使用についての規制対象組織の説明能力に関連する要件と期待事項を強調する、または明確にする」といった形で、米国の消費者をAIリスクから保護するためのに権限の使用を検討するよう奨励しています。 1

  • The Blueprint for an AI Bill of Rights(AI権利章典の青写真): この青写真は、AIシステムの設計、使用、デプロイメントの指針となる5つの原則と、これに関連する慣行を合わせて定めています。4番目の原則である「通知と説明」では透明性について直接説明しています。「自動システムの設計者、開発者、およびデプロイメントの実行者は、システム全体の機能とオートメーションが果たす役割についての明確な説明、こうしたシステムが使用されているという通知、システムの責任を負う個人または組織、そして結果についての明確で時宜にかなっており、アクセスしやすい説明を盛り込んで、全体的なアクセシビリティを確保した平易な言葉による文書を提供する必要がある」とされています。 2

  • 広島AIプロセス包括的政策枠組み: G7広島サミットで策定され、2023年に開始された「広島AIプロセス」は、安全、安心、信頼できるAIの開発を促進する、高度なAIシステムの世界的な開発のための指針原則です。この枠組みは、組織に対して11の原則を遵守するよう求めており、そのうちのいくつかで「透明性報告書の発行」と「責任ある情報共有」を奨励しています。3
AIの説明可能性、解釈可能性、透明性のそれぞれの違い

AIの透明性は、AIの説明可能性やAIの解釈可能性の概念と密接に関連しています。これらの概念は、長年の「ブラックボックス」問題、つまりAIシステムが非常に洗練されているため、人間が解釈するのが不可能であるという、実践面と倫理面での問題に取り組むのに役立つ洞察をもたらします。ただし、それぞれに別個の定義とユースケースがあります。

  • AIの説明可能性:モデルはどのようにしてその結果に到達したのか?

  • AIの解釈可能性:モデルはどのように意思決定を行うのか?

  • AIの透明性:モデルはどのように作成されたのか、どのようなデータでトレーニングされたか、どのように意思決定を下したのか?

AIの説明可能性:モデルはどのようにしてその結果に到達したのか?


AI の説明可能性、または説明可能な AI(XAI)は、機械学習モデルで作成された成果とアウトプットを人間のユーザーが理解し、信頼できるようにするための一連のプロセスと手法を指します。モデルの説明可能性は、AIシステムがどのようにしてその具体的な成果に到達したのかに着目するもので、モデルの透明性を具体化するのに役立ちます。

説明可能なAIについての詳細はこちら

AIの解釈可能性:モデルはどのように意思決定を行うのか?


AIの解釈可能性とは、AIプロセス全体を人間が理解できるようにすることを指します。AIの解釈可能性は、AIシステムの基礎となる論理、重要性、予想される結果に関する有意義な情報を提供するものです。これは人間が AI アウトプットの結果を予測する成功率を高めるものです。一方、AI説明可能性はさらに一歩進んで、AI モデルがどのようにしてその結果に到達したかに焦点を当てます。

AI解釈可能性についての詳細はこちら

AIの透明性:モデルはどのように作成されたのか、どのようなデータでトレーニングされたか、どのように意思決定を下したのか?


AI の透明性は、AI の意思決定プロセスを説明するだけではありません。AIのトレーニング・データや、誰がそれにアクセスできるかといった、AIシステムの開発とそのデプロイメントに関連する情報が含まれます。

AIの透明性を確保する方法

AIの透明性を実現する方法はユースケース、組織、業種・業務により異なりますが、企業がAIシステムを構築する際に留意すべきストラテジーがいくつかあります。大枠としては、こうしたストラテジーは、信頼と透明性に関する明確な原則を整備し、それらの原則を実践に取り入れ、AIライフサイクル全体に組み込むものです。

AIの透明性を実現するためのより具体的なストラテジーは、AIライフサイクルのあらゆる段階での徹底した情報開示です。情報開示のために、組織はどの情報を共有するか、どのように共有するのかを決定しておく必要があります。

AIの透明性に関する文書化に必要な情報



モデルのユースケース、業種・業務、オーディエンス、その他の要素を踏まえると、開示すべき情報を選定しやすくなります。例えば、AIのより高リスクな用途(住宅ローンの審査など)では、低リスクのアプリケーション(バーチャル・アシスタントの音声分類など)よりも包括的な情報開示が必要になる可能性が高いでしょう。

開示には、モデルに関する以下の情報の全部または一部が含まれるでしょう。

  • モデル名
  • 目的
  • リスクレベル
  • モデル・ポリシー
  • モデル生成
  • 対象領域
  • トレーニングデータ
  • トレーニングとテストの精度
  • バイアス
  • 敵対的堅牢性メトリクス
  • 公平性メトリクス
  • 説明可能性メトリクス
  • 問い合わせ先

AIのライフサイクルにおけるそれぞれの役割が、情報を提供し、個人ではなくエコシステム全体に説明責任を分散させるのに役立ちます。情報収集やその他のAIガバナンス活動を自動化するのに役立つソフトウェアプラットフォームやツールも利用できます。

AIの透明性に関する情報を共有する方法



組織は、AIの透明性を確保するための情報を、印刷文書や動画など、さまざまな形式で提示することができます。対象ユーザーおよびユースケースによって、ふさわしい形式は異なります。消費者を対象とした情報で、簡単に理解できる必要があるでしょうか?それとも、データサイエンティストや規制当局を対象としているため、高度な技術的詳細情報が必要でしょうか?

情報開示の形式には次のものが含まれます。

  • サプライヤー適合宣言書(SDoC)をひな形として作成された、定期的に更新される文書。SDoCは多くの業種・業務で、製品が一定の基準または技術規制に適合していることを示すために使用されています

  • 透明性の高いAIイニシアチブをどのように実践しているかを詳述した、企業ウェブサイトの公式ポリシーページ

  • AIが製品やサービスでどのように使用され、顧客体験にどのような影響を与えるのかをユーザーが理解するのに役立つ、文書やビデオなどの顧客教育リソース

  • 公式の広報活動、イベント、ソーシャルメディア、その他のコミュニケーションを通じた、組織の倫理的AIの視点に立った一般向けのメッセージ

  • 研究論文、データセット、その他のデータに基づくコミュニケーションによって、その組織に該当する業界やユースケースでのAIの使用、開発、メリットについての洞察を提供することもできます。
AIの透明性に関する課題

透明性のあるAIの実践には多くのメリットがありますが、安全性とプライバシーの問題も生じます。例えば、AIプロジェクトの内部での仕組みについて得られる情報が多ければ多いほど、ハッカーにとっては脆弱性を見つけて悪用しやすくなるかもしれません。OpenAIは、GPT-4についてのテクニカル・レポートの中で、まさにこの課題に言及して次のように述べています。

「GPT-4のような大規模モデルの競争環境と安全性への影響の両方を考慮し、本レポートには、アーキテクチャー(モデル・サイズを含む)、ハードウェア、トレーニング・コンピューティング、データセット構築、トレーニング方法などに関する詳細を記載していません。」4

上記に引用した箇所では、AIの透明性に関するもう1つの課題、つまり透明性と知的財産保護のトレードオフも見てとることができます。その他のハードルとしては、複雑で入り組んだプログラムや機械学習アルゴリズムニューラル・ネットワークなど)を専門家以外の人に明確に説明すること、AIに関する透明性の基準が世界的に欠如していることなどが挙げられるでしょう。

関連ソリューション
IBM watsonx.governance™

組織の人工知能(AI)活動を指示、管理、監視。

IBM watsonx.governanceの詳細はこちら

AI(人工知能)コンサルティング・サービス

20,000人を超えるAIエキスパートを擁するIBMのグローバル・チームが、最先端のAIソリューションとオートメーションの設計と拡張をビジネス全体で素早く確実に実行できるよう支援します。

AIコンサルティング・サービスの詳細はこちら
参考情報 信頼できるAI

IBM Researchは、AIをより説明しやすく、公平で、堅牢で、プライバシーを守り、透明性の高いものにするためのツールを開発しています。

IBM Cloudコンプライアンスプログラム

IBM Cloudサービスを使用して法規制への適合と内部ガバナンスの条件を管理します

AIファクトシートの概要

ファクトシートは、AIモデルまたはサービスの作成とデプロイメントに関する関連情報(ファクト)を集めたものです。

EU AI規則とは

EUのAI法は、EUにおける人工知能の開発や使用を規定する法律です。

アルゴリズムのバイアス

アルゴリズム・バイアスは、機械学習アルゴリズムの系統的エラーが不公平または差別的な結果をもたらす場合に発生します。

責任あるAIとは

責任あるAIとは、AIの設計、開発、デプロイメント、利用の指針となる一連の原則です。

次のステップ

生成モデルと機械学習モデルの両方のライフサイクル全体にわたって、責任があり、透明性があり、説明可能な AI ワークフローを加速します。組織のAI活動を指揮、管理、監視し、拡大するAI規制をより適切に管理し、リスクを検出、軽減します。

watsonx.governanceの詳細はこちら デモの予約
脚注

すべてのリンク先は、ibm.comの外部です。

1. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” The White House, 30 October 2023.

2. Notice and Explanation,” The White House.

3.高度なAIシステムを開発する組織向けの広島プロセス国際指針」外務省、2023年。

4. GPT-4 Technical Report,” arXiv, 15 March 2023.