【このレポートでわかること】
|
AIガバナンスとは
生成AIは、コーディングの数日から数時間への時間短縮、コンテンツ制作の高速化、顧客や従業員とのパーソナライズされた対応、サイバーセキュリティー運用の自動化など、多くのプロセスを効率化します。しかしそれと同時に、AI関連のリスクも高まっています。例えば、コンプライアンスと規制の問題や、データのバイアスと信頼性の問題、そしてユーザーがAIモデルの運用とガバナンスを理解していないがゆえに起こる信頼喪失などです。
ガバナンスとは、AIツールおよびAIシステムの原則やポリシー、責任ある開発の実践を指します。それは、倫理や人間尊重の価値観に基づいたものです。ガバナンスはAI組織体制やルール、標準を確立し、組織が「価値がある」とした原則に沿ってAIの研究、開発、応用を統率します。 また、強固なAIポリシーやデータ管理、さらに十分にトレーニングやメンテナンスされたデータセットを徹底するガバナンスは、AIに伴う潜在的なリスク(バイアス、差別、個人への危害)を軽減します1。
AIガバナンスがこれまで以上に重要になっている理由
効果的なガバナンスは、信頼ある基盤構築の鍵です。AIモデルがどのようにトレーニングされ、どのように管理されているか監視していれば、組織はより優れたモデル構築が可能になるだけでなく、「自分が利用する情報やサービスは信頼できる」と従業員や顧客、パートナー、その他の利害関係者を安心させることができます。
ガバナンスは成長のカタリスト(触媒)にもなり得ます。例えば、顧客とのつながりをいっそう有意義なものにします。これは、リスク管理やコンプライアンスを超えて、チャンスを開拓しようという経営の考え方の一部です。しかし問題なのは、組織のガバナンス成熟度が「体系的または革新的」と答えた経営層が、IBVの調査によるとわずか21%にとどまっていたことです。
ガバナンスは成長のカタリスト(触媒)にもなり得ます。
例えば、顧客とのつながりをいっそう有意義なものにします。

ガートナー社の最近のコンファレンスでは、データ管理者の65%以上が、2024年の最重要課題として自社のデータ・ガバナンスを挙げました2。経営層は自社に改善の必要性があると認めており、CEOの60%はリスク軽減のためにAIポリシーの追加を指示するよう検討しています。 CROとCFOの63%は、規制リスクやコンプライアンス・リスクに注意を払っていると答えましたが、そうしたリスクに十分に対処できているという回答は29%にとどまりました3。上場企業の約27%は、米証券取引委員会(SEC)へ提出した最新の書類の中で、AI規制をリスクの1つとして挙げています4。
AIガバナンスがこれまで以上に重要となっている理由

では、ビジネス価値を最大限に引き出すために、生成AIの取り組みを迅速に推進しつつ、安定した運用を確保するためのガバナンスや安全対策(ガードレール)はどのように構築すればよいのでしょうか。本レポートでは、リーダーにとって重要なこの課題について、「信頼の3つの主要素」という観点から具体的なアクションを提案します。
誰がAIガバナンスに責任を持つのか?
効果的なAIガバナンスを実現するには、役員層による資金と指示がなければなりません。全社的にガバナンスを導入するには、リスクを軽減し、ビジネス目標の達成を可能にする柔軟な体制づくりが必須です。
データ・ソースをどう評価し、何を共有するか?
モデル構築に使われるデータを評価し、AIユーザーの幅広いニーズや期待に見合ったものとするには、多分野にわたる人材から成る横断的なチームを展開する必要があります。これにより、モデルがどのように監査され、人間と比較してどのように機能するかについての疑問に答えることができます。
AIシステムやAIモデルの出力をどう説明するか?
人間とAIシステムの真の連携は、透明性と説得力に基づき、人間の感覚をAIの意思決定に加えることで成り立ちます。モデルの来歴の共有は、信頼の基礎です。
これらの信頼の要素の中心には、明確なAIガバナンスの実践とポリシーがあります。ガバナンスが欠如すれば、信頼できる倫理的なAIシステムの導入が難しくなる恐れがあります。対して、生成AI自体が、企業全体のガバナンス強化に貢献する可能性もあります。
信頼の要素1
説明責任: 誰がAIガバナンスに責任を持つのか?
信頼の最初の一歩は、明確な「説明責任」です。IBVの調査では、経営層の60%が生成AIリーダーを明確に定義し、組織全体に配置していると答えています。また、ほぼ同数の59%が、全社的なAI導入を担う直属の部下がいると回答しました。さらに、経営層の80%は、AIや生成AIの使用に特化した独立のリスク管理機能を置いていると答えています。AIを開発・展開する中、意図しない損害や、望ましくないバイアスのリスクを確実に減らしたいと考えているのです。
IBM IBVが経営層やクリエイティブ・エグゼクティブ、クリエイティブ・マネージャー、デザイナーを対象に行った別の調査では、回答者の47%が生成AI倫理委員会を設置済みで、倫理ポリシーの策定・管理や、生成AIのリスク軽減に努めていることが明らかになりました5。そうした委員会の目的は「適法だが不適切な(lawful but awful)」AIのリスクに対処することです6。全社的なガバナンス体制を構築することで、AIプロジェクトにおける技術倫理の問題を発見し、管理するプロセスが効率化されます7。
アクション・ガイド
トップダウンで強固なAIガバナンス体制を築く
(各項目の詳細はレポートをダウンロードしてご確認ください)
- 役員にAI/データ・ガバナンスの取り組みをリードさせる。
- 責任あるAIの開発および展開に最優先で取り組み、発展させる。
- 役員に原則と実践の整合性を確保させる。
- ガバナンスの文化を築く。
- 利害関係者やエコシステム・パートナーとの連携を促す。
ケース・スタディー :Data & Trust Alliance(D&TA)社8
※Data & Trust Alliance(D&TA)社:2020年に、「ビジネスの未来はデータとAIの責任ある使用によって支えられる」という共通理念のもと、IBMを含む大手27企業のCEOたちによって設立。総従業員数は400万人以上、年間売上高は2兆ドルを超える。
D&TAは、データ、モデル、関連プロセスの信頼性を高めるためのツールと実践を開発する活動を行っています。その一環として、2023年には業界を横断したデータ来歴の標準を初めて策定しました。この標準には、データの出所、作成方法、合法的な使用可否など、重要情報を提供する22種類のメタデータ・フィールドが含まれています。この標準は、データセットを購入または使用する際に、そのデータを深く理解できるように設計されており、データの拒否やサードパーティーへの変更要求を正当化するための根拠を提供します。
IBMは2024年初めに、基盤モデルの学習用データセットの検証プロセスの一環としてD&TAのデータ来歴標準をテストしました。IBMはすでにデータ・クリアランス・プロセスを導入し、データの適合性や適切性を確認するガイドラインを持っていましたが、この標準を用いることで、さらに効率を向上させるとともにデータ品質全体の改善を目指しました。
この取り組みの結果、IBMはサードパーティーデータのクリアランス時間を58%、自社データのクリアランス時間を62%短縮することに成功しました。また、データ品質も向上し、D&TAの標準が大きな役割を果たしました。現在、IBMは必要に応じてこの標準を自社のビジネスデータ標準に統合し、さらなる最適化を進めています。
(詳細はレポートをダウンロードしてご確認ください)
信頼の要素2
透明性: データ・ソースをどう評価し、何を共有するか?
人々にAIを利用してもらうには、まず信頼を獲得しなければなりません。その最も効果的な方法は透明性を高めることです。こと個人データに関して、透明性はプライバシーの基本原則です。それを保証するために、組織はデータ処理の方法を包み隠さずオープンにすることが求められます。そうすれば、人々は自分のデータがどのように使用され、共有されるかを判断し、意思決定することができます。
透明性は、不透明なブラックボックスを解消し、正確かつ公正な意思決定を支えます。データは人間の経験から生まれるため、データのほぼすべてがバイアスを抱えています。AIは、我々人間が持つバイアスの写し鏡です。重要なのは、どのバイアスが我々の価値観を反映していないかということです。バイアスが組織の価値観と一致するなら、なぜそのデータセットとアプローチを他のものより優先して選んだのかの理由について、透明性がなければなりません。バイアスが組織の価値観と一致しないなら、別のアプローチが必要です。
組織が明確に説明しなければならない重要質問を以下に示します。

アクション・ガイド
効果的なAIガバナンス構築に向けてドリーム・チームを編成する
(各項目の詳細はレポートをダウンロードしてご確認ください)
- 分野横断的なAIガバナンス・チームを設置する。
- 透明性について、すべての従業員をトレーニングする。
- 規制順守の先を考え、問いを投げかける。
- 社外からアイデアを受け入れる。
ケース・スタディー:オーストラリア郵便公社(Australia Post)10
※オーストラリア郵便公社(Australia Post):郵便サービスを4,310拠点で提供し、年間売上高は58億ドルを超る国有企業。個人情報や機密情報を多く扱う同社は、透明性のあるルールで顧客の信頼を維持する必要があります。
数千件に上る顧客電話への応答や従業員の端末操作をテスト・検証した結果を踏まえ、現在では、生成AI が顧客の問い合わせを振り分けたり、定型的な質問に答えたりしています。いまの目標は、通話の40 ~ 60%を生成AIで処理することです。それが実現すれば、顧客体験を向上させつつ、コストを大幅に削減できるでしょう。
特筆すべきは、多くの人がAIに懸念を抱いている中、同社が生成AIの導入を大いに進め、透明性を取り入れているということです。同社はすでにすべてのデータのレビューを実施しており、現在はデータ・ガバナンスについて厳格な手順を作成中です。規制の枠組みを順守するだけでなく、プライバシー・プロトコルとセキュリティー・プロトコルの強化にも注力しています。
信頼の要素3
説明可能性: AIシステムやAIモデルの出力をどう説明するか?
信頼できるAIの基本要素の1つとして、データ来歴の標準、つまりデータの出所と履歴をデータ・ライフサイクル全体で説明・検証できる能力も重要です。AIモデルのトレーニングにおいて、データが本物で信頼できるものであると保証するにはデータ来歴が不可欠です。AIモデルに信頼性のあるデータを入力することで、AIが生み出すインサイトや判断の信頼性が高まります。
AI モデルの入力データおよび出力結果が信頼を得るためには、説明可能性(AI の出力結果を理解し信頼できる能力)に、データ来歴の裏付けがあることが必要です。説明可能性は、生成AIモデルがどのように出力を生成しているかを説明するだけに限定されません。より高リスクなケースでは、各出力結果において、データ来歴標準に基づくデータ経歴の説明とともに、証拠を提供することが適切です。
IBVの調査では、経営層のほとんどが説明可能性の重要性を認識していると回答しています。

アクション・ガイド
AIの仕組みに人間の感覚を織り込む
(各項目の詳細はレポートをダウンロードしてご確認ください)
- 人間とAIが連携し、監視しやすいAIシステムを設計する。
- 説明と監査が可能なAIの出力を優先する。
- AIの出力が混乱を招くものである場合は、遠慮なく声を上げることを従業員に奨励する。
ガバナンスと信頼構築
生成AIは信頼できるのでしょうか。信頼を確保するための安全策と、生成AIの力はバランスを保てるでしょうか。
答えはイエスです。ただし、そう言えるのは組織が献身と熱意を持ってAIガバナンスに取り組んでいる場合だけです。
AIガバナンスに経営層レベルの後押しがあれば、もはや単なるITの問題ではなく、価値創造、成長、イノベーション、人間とAIの連携による可能性の開拓につながる中枢戦略と見なされるようになるでしょう。ぜひレポートをダウンロードし、アクションの詳細や先人達のユース・ケースをご覧ください。
- Mucci, Tim and Stryker, Cole. “What is AI governance?” IBM Blog. November 28, 2023. https://www.ibm.com/topics/ai-governance
- “Data Governance is a Top Priority for 65% of Data Leaders-Insights From 600+ Data Leaders For 2024.” Humans of data. March 28, 2024. https://humansofdata.atlan.com/2024/03/future-of-data-analytics-2024/
- The CEO’s guide to generative AI: Risk management. IBM Institute for Business Value. 2024. https://www.ibm.com/thought-leadership/institute-business-value/jp-ja/report/ceo-ai-risk-management-jp
- Lin, Belle. “AI Regulation Is Coming. Fortune 500 Companies Are Bracing for Impact.” The Wall Street Journal. August 27, 2024. https://www.wsj.com/articles/ai-regulation-is-coming-fortune-500-companies-are-bracing-for-impact-94bba201
- Disruption by design: Evolving experiences in the age of generative AI. IBM Institute for Business Value. June 2024. https://www.ibm.com/thought-leadership/institute-business-value/jp-ja/report/generative-ai-experience-design
- Foody, Kathleen. “Explainer: Questioning blurs meaning of ‘lawful but awful’”. AP. April 7, 2021. https://apnews.com/article/death-of-george-floyd-george-floyd-cba9d3991675231122e2b68fbd5b4b00
- Montgomery, Christina and Francesca Rossi. “A look into IBM’s AI ethics governance framework.” IBM Blog. December 4, 2023. https://www.ibm.com/blog/a-look-into-ibms-ai-ethics-governance-framework/
- The Data & Trust Alliance. https://dataandtrustalliance.org/about
- Duarte, Fabio. “Amount of data created daily (2024). June 13, 2024. Exploding Topics. https://explodingtopics.com/blog/data-generated-per-day
- Internal IBM case study.
著者について
山田 敦(日本語翻訳監修), 日本アイ・ビー・エム株式会社,AI倫理チーム・リーダー,データサイエンティスト職 ・リーダー,技術理事Phaedra Boinodiris, Global Leader for Trustworthy AI, IBM Consulting
Catherine Quinlan, Vice President, AI Ethics, IBM Chief Privacy Office
Milena Pribic, Design Principal, Ethical AI Practices, IBM Software
Brian Goehring, Associate Partner and Global AI Research Lead, IBM Institute for Business Value
発行日 2024年10月17日