公開日:2024年9月6日
執筆:Alexandra Jonker、Alice Gomstyn、Amanda McGrath
AIの透明性は、人工知能(AI) システムがどのように作成され、どのように意思決定を行うのかについて、人々が情報にアクセスしてよりよく理解するのに役立ちます。
研究者はしばしば人工知能を「ブラックボックス」と表現するることがあります。これはテクノロジーの複雑化が進み、AIの成果を説明、管理、規制することがまだ難しいためです。AIの透明性を確保することは、このブラックボックスを開いて見せ、AIの成果と、モデルによる意思決定の方法をよりよく理解することにつながります。
金融、医療、人事(HR)、警察など、ハイリスクな業種・業務での意思決定にAIモデルを活用する事例が増えています。これらのモデルがどのように訓練され、どのように結果を決定するのかについて人々の理解を深めることは、AIの決定とそれを使用する組織に対する信頼を築くことにつながります。
AI作成者は情報開示を通じて、透明性と信頼できるAIを実現できます。基礎となるAI アルゴリズムのロジックと推論、モデルのトレーニングに使用されるデータ入力、モデルの評価と検証に使用される方法などを文書化して共有することができます。これにより、利害関係者は公平性、ドリフト 、 バイアスに対するモデルの予測の正確性を評価することができます。
責任あるAIには、高い透明性が不可欠です。責任あるAIとは、AIの設計、開発、デプロイメント、利用の指針となる一連の原則です。AIシステムのより広範な社会的影響と、そのテクノロジーを利害関係者の価値観、法的基準、倫理的要件に合わせるために必要な対策について考慮するものです。
生成型AIチャットボット、バーチャル・アシスタント、推奨エンジンなどのAIアプリケーションは現在、世界中で毎日何千万人もの人々が使用しています。こうしたAIツールの仕組みの透明性は、このような低リスクの意思決定ではそれほど問題にはならないでしょう。モデルが不正確でバイアスがかかっていることが判明した場合でも、ユーザーは多少の時間や可処分所得を失う程度ですみます。
しかし、より多くの分野がより高リスクな意思決定にAIアプリケーションを採用しています。たとえばAIは現在、企業やユーザーが投資の選択、医療診断、採用の決定、刑事判決などを行うのに利用されています。このような場合、偏ったアウトプットや不正確なAI出力がもたらす潜在的な結果は、はるかに危険です。人々は一生の貯蓄、キャリアのチャンス、または何年もの人生を失う可能性があります。
AIが自分たちに代わって効果的で公正な意思決定を下していることを利害関係者が信じられるようにするには、モデルが動作する仕組み、アルゴリズムのロジック、モデルが正確性と公平性に関するモデルの評価方法を可視化する必要があります。また、データ・ソースやデータの処理方法、重み付け方法、ラベル付け 方法など、モデルのトレーニングとチューニングに使用されるデータについて詳しく知らせる必要があります。
AIの透明性を確保することで、信頼の構築に加えて、AIエコシステム全体での知識の共有とコラボレーションが進み、AI開発のさらなる進歩に貢献します。また、デフォルトとして透明性を確保することで、組織はAIテクノロジーの使用によるビジネス目標の達成に集中することができ、AIの信頼性についてそれほど気にかける必要がなくなります。
AIの使用を取り巻く規制要件は、常に進化しています。これらの規制を遵守し、モデル検証者、監査人、規制当局からの要求に対処するためには、モデルの透明性確保のプロセスが不可欠です。EUのAI法は、AIに対する世界初の包括的な規制フレームワークと見なされています。
欧州連合(EU)の人工知能法(AI法)はリスクベースの規制アプローチを採用しており、AIがもたらすリスクに応じて異なるルールを適用しています。一部のAIの使用を完全に禁止し、その他については厳格なガバナンス、リスク管理、透明性についての要件を課しています。特定のタイプのAIには追加の透明性義務が課されています。例:
EUで一般データ保護規則(GDPR)が導入されると、他の国や地域でも個人データ・プライバシーの規制を採用するようになりました。同じように、専門家はEUのAI法が世界中でAIガバナンスと倫理基準の発展を促進すると予測しています。
ほとんどの国や地域では、AIの使用に関する包括的な法律や規制はまだ制定されていません。ただし、いくつか広範なフレームワークが利用できるようになっています。これらには必ずしも強制力があるとは限りませんが、将来の規制や AIの責任ある開発と利用の指針として存在しています。注目すべき例としては:
AIの透明性は、AIの説明可能性やAIの解釈可能性の概念と密接に関連しています。これらの概念は、長年の「ブラックボックス」問題、つまりAIシステムが非常に洗練されているため、人間が解釈するのが不可能であるという、実践面と倫理面での問題に取り組むのに役立つ洞察をもたらします。ただし、それぞれに別個の定義とユースケースがあります。
AI の説明可能性、または説明可能な AI(XAI)は、機械学習モデルで作成された成果とアウトプットを人間のユーザーが理解し、信頼できるようにするための一連のプロセスと手法を指します。モデルの説明可能性は、AIシステムがどのようにしてその具体的な成果に到達したのかに着目するもので、モデルの透明性を具体化するのに役立ちます。
AIの解釈可能性とは、AIプロセス全体を人間が理解できるようにすることを指します。AIの解釈可能性は、AIシステムの基礎となる論理、重要性、予想される結果に関する有意義な情報を提供するものです。これは人間が AI アウトプットの結果を予測する成功率を高めるものです。一方、AI説明可能性はさらに一歩進んで、AI モデルがどのようにしてその結果に到達したかに焦点を当てます。
AI の透明性は、AI の意思決定プロセスを説明するだけではありません。AIのトレーニング・データや、誰がそれにアクセスできるかといった、AIシステムの開発とそのデプロイメントに関連する情報が含まれます。
AIの透明性を実現する方法はユースケース、組織、業種・業務により異なりますが、企業がAIシステムを構築する際に留意すべきストラテジーがいくつかあります。大枠としては、こうしたストラテジーは、信頼と透明性に関する明確な原則を整備し、それらの原則を実践に取り入れ、AIライフサイクル全体に組み込むものです。
AIの透明性を実現するためのより具体的なストラテジーは、AIライフサイクルのあらゆる段階での徹底した情報開示です。情報開示のために、組織はどの情報を共有するか、どのように共有するのかを決定しておく必要があります。
モデルのユースケース、業種・業務、オーディエンス、その他の要素を踏まえると、開示すべき情報を選定しやすくなります。例えば、AIのより高リスクな用途(住宅ローンの審査など)では、低リスクのアプリケーション(バーチャル・アシスタントの音声分類など)よりも包括的な情報開示が必要になる可能性が高いでしょう。
開示には、モデルに関する以下の情報の全部または一部が含まれるでしょう。
AIのライフサイクルにおけるそれぞれの役割が、情報を提供し、個人ではなくエコシステム全体に説明責任を分散させるのに役立ちます。情報収集やその他のAIガバナンス活動を自動化するのに役立つソフトウェアプラットフォームやツールも利用できます。
組織は、AIの透明性を確保するための情報を、印刷文書や動画など、さまざまな形式で提示することができます。対象ユーザーおよびユースケースによって、ふさわしい形式は異なります。消費者を対象とした情報で、簡単に理解できる必要があるでしょうか?それとも、データサイエンティストや規制当局を対象としているため、高度な技術的詳細情報が必要でしょうか?
情報開示の形式には次のものが含まれます。
透明性のあるAIの実践には多くのメリットがありますが、安全性とプライバシーの問題も生じます。例えば、AIプロジェクトの内部での仕組みについて得られる情報が多ければ多いほど、ハッカーにとっては脆弱性を見つけて悪用しやすくなるかもしれません。OpenAIは、GPT-4についてのテクニカル・レポートの中で、まさにこの課題に言及して次のように述べています。
「GPT-4のような大規模モデルの競争環境と安全性への影響の両方を考慮し、本レポートには、アーキテクチャー(モデル・サイズを含む)、ハードウェア、トレーニング・コンピューティング、データセット構築、トレーニング方法などに関する詳細を記載していません。」4
上記に引用した箇所では、AIの透明性に関するもう1つの課題、つまり透明性と知的財産保護のトレードオフも見てとることができます。その他のハードルとしては、複雑で入り組んだプログラムや機械学習アルゴリズム(ニューラル・ネットワークなど)を専門家以外の人に明確に説明すること、AIに関する透明性の基準が世界的に欠如していることなどが挙げられるでしょう。
IBM Researchは、AIをより説明しやすく、公平で、堅牢で、プライバシーを守り、透明性の高いものにするためのツールを開発しています。
IBM Cloudサービスを使用して法規制への適合と内部ガバナンスの条件を管理します
ファクトシートは、AIモデルまたはサービスの作成とデプロイメントに関する関連情報(ファクト)を集めたものです。
EUのAI法は、EUにおける人工知能の開発や使用を規定する法律です。
アルゴリズム・バイアスは、機械学習アルゴリズムの系統的エラーが不公平または差別的な結果をもたらす場合に発生します。
責任あるAIとは、AIの設計、開発、デプロイメント、利用の指針となる一連の原則です。
すべてのリンク先は、ibm.comの外部です。
1. “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” The White House, 30 October 2023.
2. “Notice and Explanation,” The White House.
3. 「高度なAIシステムを開発する組織向けの広島プロセス国際指針」外務省、2023年。
4. “GPT-4 Technical Report,” arXiv, 15 March 2023.