Actions / Navigation / close / 20
マイIBM ログイン ニュースレター

AIの透明性とは

2024年9月6日

共同執筆者

Alexandra Jonker

Editorial Content Lead

Alice Gomstyn

IBM Content Contributor

Amanda McGrath

Writer

IBM

AIの透明性とは

AIの透明性は、人工知能(AI)システムがどのように作成され、どのように意思決定を行うのかについて、人々が情報にアクセスしてよりよく理解するのに役立ちます。

研究者はしばしば人工知能を「ブラックボックス」と表現するることがあります。これはテクノロジーの複雑化が進み、AIの成果を説明、管理、規制することがまだ難しいためです。AIの透明性を確保することは、このブラックボックスを開いて見せ、AIの成果と、モデルによる意思決定の方法をよりよく理解することにつながります。

金融、医療人事(HR)、警察など、ハイリスクな業種・業務での意思決定にAIモデルを活用する事例が増えています。これらのモデルがどのように訓練され、どのように結果を決定するのかについて人々の理解を深めることは、AIの決定とそれを使用する組織に対する信頼を築くことにつながります。

AI作成者は情報開示を通じて、透明性と信頼できるAIを実現できます。基盤となるAIアルゴリズムのロジックと推論、モデルのトレーニングに使用されるデータ入力、モデルの評価と検証に使用される方法などを文書化して共有することができます。これにより、利害関係者は公平性、ドリフトバイアスに対するモデルの予測の正確性を評価することができます。

責任あるAIには、高い透明性が不可欠です。責任あるAIとは、AIの設計、開発、デプロイメント、利用の指針となる一連の原則です。AIシステムのより広範な社会的影響と、そのテクノロジーを利害関係者の価値観、法的基準、倫理的要件に合わせるために必要な対策について考慮するものです。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

AIの透明性が重要である理由

生成型AIチャットボットバーチャル・アシスタント推奨エンジンなどのAIアプリケーションは現在、世界中で毎日何千万人もの人々が使用しています。こうしたAIツールの仕組みの透明性は、このような低リスクの意思決定ではそれほど問題にはならないでしょう。モデルが不正確でバイアスがかかっていることが判明した場合でも、ユーザーは多少の時間や可処分所得を失う程度ですみます。

しかし、より多くの分野がより高リスクな意思決定にAIアプリケーションを採用しています。たとえばAIは現在、企業やユーザーが投資の選択医療診断採用の決定刑事判決などを行うのに利用されています。このような場合、偏ったアウトプットや不正確なAI出力がもたらす潜在的な結果は、はるかに危険です。人々は一生の貯蓄、キャリアのチャンス、または何年もの人生を失う可能性があります。

AIが自分たちに代わって効果的で公正な意思決定を下していることを利害関係者が信じられるようにするには、モデルが動作する仕組み、アルゴリズムのロジック、モデルが正確性と公平性に関するモデルの評価方法を可視化する必要があります。また、データ・ソースやデータの処理方法、重み付け方法、ラベル付け 方法など、モデルのトレーニングとチューニングに使用されるデータについて詳しく知らせる必要があります。

AIの透明性を確保することで、信頼の構築に加えて、AIエコシステム全体での知識の共有とコラボレーションが進み、AI開発のさらなる進歩に貢献します。また、デフォルトとして透明性を確保することで、組織はAIテクノロジーの使用によるビジネス目標の達成に集中することができ、AIの信頼性についてそれほど気にかける必要がなくなります。

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

AIの透明性に関する規制とフレームワーク

AIの使用を取り巻く規制要件は、常に進化しています。これらの規制を遵守し、モデル検証者、監査人、規制当局からの要求に対処するためには、モデルの透明性確保のプロセスが不可欠です。EUのAI法は、AIに対する世界初の包括的な規制フレームワークと見なされています。

EUのAI法

欧州連合(EU)の人工知能法(AI法)はリスクベースの規制アプローチを採用しており、AIがもたらすリスクに応じて異なるルールを適用しています。一部のAIの使用を完全に禁止し、その他については厳格なガバナンス、リスク管理、透明性の要件を課しています。特定のタイプのAIには追加の透明性義務が課されています。例:

  • 個人と直接対話することを目的としたAIシステムは、文脈から明らかである場合を覗き、AIシステムと対話していることをユーザーに通知するように設計する必要があります。例えば、チャットボットは、それがチャットボットであることをユーザーに知らせるように設計しなければなりません。

  • テキスト、画像、その他特定のコンテンツを生成するAIシステムは、アウトプットに対してAI生成または改変を示す機械可読形式のマーキングをしなければなりません。ここには、例えば、ディープフェイク(ある人物が実際にはやっていない、または言っていないことを、あたかもやっているかのように見せるために加工された画像や動画)を生成するAIが含まれます。

EUが一般データ保護規則(GDPR)を実装したことは、個人データプライバシーの法規制を他の国や地域で導入するように彼らを誘導しました。同じように、専門家はEUのAI法が世界中でAIガバナンス倫理基準の発展を促進すると予測しています。

AI透明性の指針となるフレームワーク

ほとんどの国や地域では、AIの使用に関する包括的な法律や規制はまだ制定されていません。ただし、いくつか広範なフレームワークが利用できるようになっています。これらには必ずしも強制力があるとは限りませんが、将来の規制やAIの責任ある開発と利用の指針として存在しています。注目すべき例:

  • 人工知能の安全、安心、信頼できる開発と利用に関する米大統領令:2023年10月30日に公布された(2025年1月20日に撤回)この大統領令では、いくつかのセクションで透明性が取り上げられています。第8条では、消費者、患者、乗客、学生の保護について具体的に取り上げています。ここでは独立した規制機関に対して、「AIモデルの透明性、およびAIモデルの使用についての規制対象組織の説明能力に関連する要件と期待事項を強調する、または明確にする」といった形で、米国の消費者をAIリスクから保護するためのに権限の使用を検討するよう奨励しています。1

  • AI権利章典の青写真:この青写真は、AIシステムの設計、使用、デプロイメントの指針となる5つの原則と、これに関連する慣行を合わせて定めています。4番目の原則である「通知と説明」では透明性について直接説明しています。「自動システムの設計者、開発者、およびデプロイメントの実行者は、システム全体の機能とオートメーションが果たす役割についての明確な説明、こうしたシステムが使用されているという通知、システムの責任を負う個人または組織、そして結果についての明確で時宜にかなっており、アクセスしやすい説明を盛り込んで、全体的なアクセシビリティを確保した平易な言葉による文書を提供する必要がある」とされています。2

  • 広島AIプロセス包括的政策枠組み:G7広島サミットで策定され、2023年に開始された「広島AIプロセス」は、安全、安心、信頼できるAIの開発を促進する、高度なAIシステムの世界的な開発のための指針原則です。この枠組みは、組織に対して11の原則を遵守するよう求めており、そのうちのいくつかで「透明性報告書の発行」と「責任ある情報共有」を奨励しています。3

AIの説明可能性、解釈可能性、透明性のそれぞれの違い

AIの透明性は、AIの説明可能性やAIの解釈可能性の概念と密接に関連しています。これらの概念は、長年の「ブラックボックス」問題、つまりAIシステムが非常に洗練されているため、人間が解釈するのが不可能であるという、実践面と倫理面での問題に取り組むのに役立つ洞察をもたらします。ただし、それぞれに別個の定義とユースケースがあります。

  • AIの説明可能性:モデルはどのようにしてその結果に到達したのか?

  • AIの解釈可能性:モデルはどのように意思決定を行うのか?

  • AIの透明性:モデルはどのように作成されたのか、どのようなデータでトレーニングされたか、どのように意思決定を下したのか?

AIの説明可能性:モデルはどのようにしてその結果に到達したのか。

AIの説明可能性、すなわち説明可能AI(XAI)は、人間のユーザーが、機械学習モデルによって生成された結果とアウトプットを理解し信頼できるようにするための一連のプロセスまたは方法です。モデルの説明可能性は、AIシステムがどのようにしてその具体的な成果に到達したのかに着目するもので、モデルの透明性を具体化するのに役立ちます。

AIの解釈可能性:モデルはどのように意思決定を行うのか?

AIの解釈可能性とは、AIプロセス全体を人間が理解できるようにすることを指します。AIの解釈可能性は、AIシステムの基礎となる論理、重要性、予想される結果に関する有意義な情報を提供するものです。これは人間がAIアウトプットの結果を予測する成功率を高めるものです。一方、AI説明可能性はさらに一歩進んで、AIモデルがどのようにしてその結果に到達したかに焦点を当てます。

AIの透明性:モデルはどのように作成されたのか、どのようなデータでトレーニングされたか、どのように意思決定を下したのか?

AIの透明性は、AIの意思決定プロセスを説明するだけではありません。AIのトレーニング・データや、誰がそれにアクセスできるかといった、AIシステムの開発とそのデプロイメントに関連する情報が含まれます。

AIの透明性を確保する方法

AIの透明性を実現する方法はユースケース、組織、業種・業務により異なりますが、企業がAIシステムを構築する際に留意すべきストラテジーがいくつかあります。大枠としては、こうしたストラテジーは、信頼と透明性に関する明確な原則を整備し、それらの原則を実践に取り入れ、AIライフサイクル全体に組み込むものです。

AIの透明性を実現するためのより具体的なストラテジーは、AIライフサイクルのあらゆる段階での徹底した情報開示です。情報開示のために、組織はどの情報を共有するか、どのように共有するのかを決定しておく必要があります。

AIの透明性に関する文書化に必要な情報

モデルのユースケース、業種・業務、オーディエンス、その他の要素を踏まえると、開示すべき情報を選定しやすくなります。例えば、AIの高リスクな用途(住宅ローンの評価など)は、低リスクのアプリケーション(音声分類などを行うバーチャル・アシスタントの用途など)よりも広範な開示を必要とすると考えられます。

開示には、モデルに関する以下の情報の全部または一部が含まれるでしょう。

  • モデル名
  • 目的
  • リスクレベル
  • モデル・ポリシー
  • モデル生成
  • 対象領域
  • トレーニングデータ
  • トレーニングとテストの精度
  • バイアス
  • 敵対的堅牢性メトリクス
  • 公平性メトリクス
  • 説明可能性メトリクス
  • 問い合わせ先

AIのライフサイクルにおけるそれぞれの役割が、情報を提供し、個人ではなくエコシステム全体に説明責任を分散させるのに役立ちます。情報収集やその他のAIガバナンス活動を自動化するのに役立つソフトウェアプラットフォームやツールも利用できます。

AIの透明性に関する情報を共有する方法

組織は、AIの透明性を確保するための情報を、印刷文書や動画など、さまざまな形式で提示することができます。対象ユーザーおよびユースケースによって、ふさわしい形式は異なります。消費者を対象とした情報であり、簡単に理解できるようにする必要があるでしょうか。それとも、データサイエンティストや規制当局を対象としているため、高度な技術情報が必要でしょうか。

形式には、次のようなものがあります。

  • サプライヤー適合宣言書(SDoC)をひな形として作成された、定期的に更新される文書。SDoCは多くの業種・業務で、製品が一定の基準または技術規制に適合していることを示すために使用されています

  • 透明性の高いAIイニシアチブをどのように実践しているかを詳述した、企業ウェブサイトの公式ポリシーページ

  • AIが製品やサービスでどのように使用され、顧客体験にどのような影響を与えるのかをユーザーが理解するのに役立つ、文書やビデオなどの顧客教育リソース

  • 公式の広報活動、イベント、SNS、その他のコミュニケーションを通じて、組織のAIに関する倫理的な見解を公表していく。

  • 研究論文、データセット、その他のデータに基づくコミュニケーションによって、その組織に該当する業界やユースケースでのAIの使用、開発、メリットについての洞察を提供することもできます。

AIの透明性に関する課題

透明性のあるAIの実践には多くのメリットがありますが、安全性とプライバシーの問題も生じます。例えば、AIプロジェクトの内部での仕組みについて得られる情報が多ければ多いほど、ハッカーにとっては脆弱性を見つけて悪用しやすくなるかもしれません。OpenAIは、GPT-4についてのテクニカル・レポートの中で、まさにこの課題に言及して次のように述べています。

「GPT-4のような大規模モデルの競争環境と安全性への影響の両方を考慮し、本レポートには、アーキテクチャー(モデル・サイズを含む)、ハードウェア、トレーニング・コンピューティング、データセット構築、トレーニング方法などに関する詳細を記載していません。」4

上記に引用した箇所では、AIの透明性に関するもう1つの課題、つまり透明性と知的財産保護のトレードオフも見てとることができます。その他のハードルとしては、複雑で入り組んだプログラムや機械学習アルゴリズムニューラル・ネットワークなど)を専門家以外の人に明確に説明すること、AIに関する透明性の基準が世界的に欠如していることなどが挙げられるでしょう。

関連ソリューション

関連ソリューション

IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
IBM OpenPages

統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。

OpenPagesの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモを予約
脚注

1. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence」、米ホワイトハウス、2023年10月30日。

2. Notice and Explanation」、米ホワイトハウス。

3. 高度なAIシステムを開発する組織向けの広島プロセス国際指針」、日本外務省、2023年

4. GPT-4 Technical Report」、 arXiv、2023年3月15日。