信頼できる人工知能(TAI)は、AIモデルの展開に関連する潜在的なリスクを軽減できます。これらのAIリスクには、人、組織、エコシステムへの危害が含まれます。このような損害が発生すると、特定のAIモデルだけでなく、人工知能全体の信頼が損なわれる可能性があります。
信頼できるAIフレームワークは、組織がAIテクノロジーを開発、採用、評価する際の指針となります。米国の国立標準技術研究所(NIST)、欧州委員会のAIに関するハイレベル専門家グループ、経済協力開発機構(OECD)など、いくつかの政府および政府間組織がこのようなフレームワークを確立しています。
さらに、企業はさまざまなストラテジーとツールを導入して、AIシステムの信頼性を向上させることができます。たとえば、継続的な監視、文書化、AIガバナンス・フレームワークはすべてリスクを最小限に抑えるために役立ちます。
テクノロジーの仕組みを理解することは、多くの場合、その有効性を信頼するための鍵となります。しかし、ディープラーニングモデルなどの多くのAIおよび機械学習(ML)システムは、本当のブラック・ボックスとして動作します。つまり、データを取り込んで出力を作成しますが、その出力にたどり着くまでの過程についてはほとんど(または全く)透明性がありません。
その結果、信頼不足が深刻化しています。2023年の調査では、ビジネス・リーダーの40%超がAIの信頼性に関する懸念を挙げていることがわかりました。1一方、消費者はAIへの不信頼も示しています。2024年の調査では、製品のラベルに「人工知能」という用語を含めると、買い物客がその製品を購入する可能性が低下することがわかっています。2
AIシステムが誤った結果や有害な結果を生み出している実例は、影響力が大きいユースケースで、AIの信頼性に対する懸念をさらに高めています。ある有名な医療事例では、AIモデルは信頼性の高い敗血症の診断ができませんでした。このモデルはトレーニング環境ではうまく機能しましたが、入院患者の3分の2以上の敗血症を検出できませんでした。3
他の事例では、AIモデルが偏ったアルゴリズムによる意思決定を行っていることが示されており、その中には少数派コミュニティを不当にターゲットとする予測型ポリシングシステムや、女性候補者よりも男性候補者を優遇する応募者追跡システムなどがあります。さらに、AIチャットボットが誤って機密性の高い個人データを公開したり、ハッカーがAIモデルの脆弱性をエクスプロイトして企業の機密情報を盗んだりするなど、セキュリティ上の懸念もあります。
AIモデルがパフォーマンスを低下させたり、有害な成果を生み出したりすると、そのモデルだけでなく、人工知能全般に対する信頼も損なわれる可能性があり、今後のAIの開発と導入に支障をきたす可能性があります。信頼できるAIシステムを実現し、将来のAI開発を支援するということは、比喩的なAIブラックボックスの中に光を当てることを意味します。これにより、利害関係者はAIアプリケーションが信頼性の高い正確な成果を提供することを期待しつつ、偏った成果や本来の意図と一致しない成果のリスクを最小限に抑えることができます。
さまざまな組織やフレームワークが、信頼できるAIに関するさまざまな指針と目標を強調しています。信頼できるAIの原則としてよく挙げられるのは次のような点です。
AIにおける説明責任は、AIの利用者に、AIシステムのライフサイクル全体を通じてAIシステムが適切に機能することに対する責任を負わせることを意味します。これには、AIテクノロジーの開発、デプロイ、または運用に関与する個人および組織が含まれます。4
AIの説明可能性とは、モデルの出力を検証したり、その説明を提供したりすることです。説明可能性にはさまざまな方法があり、総称して説明可能なAIと呼ばれ、これにより、人間のユーザーは機械学習アルゴリズムによって作成された成果と出力について理解し、信頼できるようになります。
AIプライバシーとは、AIによって収集、使用、共有、または保管される個人情報や機密情報の保護を指します。AIプライバシーはデータ・プライバシーと密接に関連しています。データ・プライバシーは情報プライバシーとも呼ばれ、個人が自分の個人データを管理できるべきであるという原則です。AIとデータ・プライバシーの維持は、暗号から連合学習に至るまで、さまざまな方法を通じて改善できます。
信頼性とは、特定の条件下で一定期間にわたって、故障なく意図または要求どおりに機能する能力として定義できます。信頼できるAIシステムは、想定された条件下で使用される場合、一定期間(これがシステムの寿命全体である場合もあります)にわたって正しい成果を出さなければなりません。5
安全で堅牢なAIシステムには、敵対的な攻撃や不正アクセスに対する保護メカニズムが備わっており、サイバーセキュリティー・リスクと脆弱性を最小限に抑えます。こうしたシステムは、異常な状態でも意図しない害を及ぼすことなく機能し、予期せぬ事態が発生した後に通常の機能に戻ることができます。
安全なAIシステムは、人の生命、健康、財産、環境を危険にさらすことはありません。これらは、人々を能動的に危害から守る設計がされており、システムを利用停止する可能性を含め、安全でない結果を軽減する手段が含まれています。6
信頼できる品質のないAIシステムは、さまざまなリスクを引き起こします。米国商務省の一部である米国国立標準技術研究所(NIST)は、AIリスク管理のベンチマークとなっているフレームワークを開発しました。このフレームワークは、AIシステムによる潜在的な危害のリスクを次のカテゴリに分類しています。7
このカテゴリには、個人の市民的自由、権利、身体的・心理的安全、経済的機会にもたらされる損害が含まれます。また、差別による集団への影響や、民主主義への参加や教育へのアクセスへの害という形での社会的影響も含まれます。
このカテゴリーは、組織のオペレーションに対する損害、セキュリティー侵害や金銭的損失による損害、および組織の評判への危害を指します。
このカテゴリーには、「相互接続され、相互依存する要素およびリソース」に対する危害が含まれます。NISTは、特に、グローバルな金融システム、サプライチェーン、または「相互関連システム」天然資源、環境、地球への危害を挙げています。
AIシステムによる偏ったまたは不正確なアウトプットは、いくつもの被害をもたらす可能性があります。前の例に戻ると、偏った応募者追跡システムは、個人の経済的機会を損なうと同時に、組織の評判も損なう可能性があります。大規模言語モデル(LLM)が騙されてマルウェアを実行し、企業のオペレーションを麻痺させてしまうと、企業とその企業が属するサプライチェーンの両方に損害を与える可能性があります。
信頼できるAIシステムは、そのような悲惨なシナリオや結果を防ぐのに役立つ可能性があります。NISTは、「信頼できるAIシステムとその責任ある使用は、ネガティブなリスクを軽減し、人々、組織、エコシステムにとってメリットとなります」と述べています。
近年、AIプロバイダーとユーザーを信頼できるAIシステムの開発、デプロイメント、運用においてガイドするためのさまざまなフレームワークが登場しています。これらのフレームワークには、次のものが含まれます。
2023年1月に公開されたNIST AIリスク・マネジメント・フレームワーク(AI RMF)には、AIライフサイクル全体にわたるAIリスクの概要と信頼できるAIシステムの特性が含まれています。このフレームワークでは、テスト、評価、検証、妥当性確認タスクなど、組織がこのようなシステムを管理するのに役立つ具体的なアクションについても概説します。
この任意のフレームワークはあらゆる企業や地域に適用されますが、NISTは、信頼できるAIの特性がすべての状況に適用されるわけではないことを認めています。このフレームワークでは、適用される信頼性メトリクスを選択する際に人間の判断を使用すること、またある一つの信頼できるAIの特性に最適化する際には、別の信頼できるAIの特性に最適化する場合とのトレードオフが伴うことを考慮することを奨励しています。2024年7月、NISTは生成AIに焦点を当てたAI RMFの付属リソースをリリースしました。
OECDのAI原則は、AIの使用における人権と民主的価値観の尊重を促進しています。2019年5月に採択され、2024年5月に更新されたOECDのフレームワークには、価値観に基づく原則と政策立案者向けの勧告の両方が含まれています。米国、EU加盟国、南米とアジアの国または地域を含む、世界中の47の国または地域がこの勧告を指示しており、OECDは、AIに関する最初の政府間基準として強く推奨しています。
欧州委員会のAIに関するハイレベル専門家グループが2019年4月に公開した欧州連合のガイドラインは、AIの倫理に焦点を当て、EUにおけるAI開発への「人間中心」のアプローチを強調しています。このガイドラインには、「人間の活動と監視」「社会・環境福祉」など、7つの倫理原則が含まれています。翌年、同グループは「信頼できるAIのためのアセスメント・リスト」(リンクはibm.comの外にあります)を発表し、企業がAIシステムを評価するのに役立てました。
ガイドライン自体に拘束力はありませんが、後に欧州連合における人工知能の開発や使用を規制する象徴的な法律であるEU AI法で引用されました。同法の条文には、EUのAI倫理原則が「可能な限り、AIモデルの設計と使用において反映されるべきである」と記されています。8
大統領府科学技術政策局(AI権利章典の青写真を通じて)や、デロイト社(ibm.com外部へのリンク)やIBMなどの企業を含む他の組織も、信頼できるAIを奨励するフレームワークとガイドラインを発表しています。
信頼できるAI、倫理的AI、責任あるAIという用語は、しばしば同じ意味で使用されます。また、各概念の定義は情報源によって異なることがあり、重要な重複が含まれることも多いため、この3つを包括的に区別することは困難な場合があります。
たとえば、「信頼できるAI」や「倫理的なAI」の一般的な定義には、それぞれの概念の基礎として公平性やプライバシーなどの原則が挙げられています。同様に、説明責任性と透明性は、信頼できるAIと責任あるAIの両方に関連していることがよくあります。
AIに基づく3つの概念を見分ける方法の一つは、中核となる原則の先を見据えて、その使用方法に焦点を当てることです。
組織は、AIアルゴリズムやデータ・セットなどの人工知能システムが信頼できるAIの原則に沿って動作していることを確認するための重要な手順を実行できます。
評価:AIを活用したビジネスプロセスを評価することで、企業はさまざまな信頼性メトリクスに基づいて、どこに改善の余地があるかを判断することができます。
継続的な監視:AIバイアスやモデル・ドリフトなどの問題を継続的に監視することで、組織は不公平または不正確なプロセスや出力に積極的に対処し、公平性と信頼性をサポートします。
リスク管理:リスク管理のフレームワークとツールを導入することで、セキュリティー侵害やプライバシー侵害の検知と最小化が可能になり、AIの堅牢性が強化されます。
文書化:データ・サイエンスとAIのライフサイクル全体で自動化された文書は、業界監査や規制監査に使用できるため、説明責任性と透明性を実現します。
AIガバナンス・フレームワーク:AIガバナンス・フレームワークには、データおよびモデル管理に関する手順が含まれており、組織内の開発者とデータ・サイエンティストが内部標準と官公庁・自治体による規制の両方に準拠していることを確認するのに役立ちます。
AIガバナンス・ソフトウェアとオープンソースのツールキットは、組織がAIシステムの信頼性を向上させるために、これらの手順やその他の手順を踏む際のサポートができます。適切な対策と安全策を講じることで、企業はAIの力を活用しながらリスクを最小限に抑えることができます。
1「Workday Global Survey: 98% of CEOs Say Their Organizations Would Benefit from Implementing AI, But Trust Remains a Concern.」Workday社。2023年9月14日。
2「Adverse impacts of revealing the presence of “Artificial Intelligence (AI)” technology in product and service descriptions on purchase intentions: the mediating role of emotional trust and the moderating role of perceived risk.」Journal of Hospitality Marketing& Management。2024年6月19日。
3「From theory to practice: Harmonizing taxonomies of trustworthy AI.」Health Policy OPEN。2024年9月5日。
4「OECD AI Principles: Accountability (Principle 1.5).」OECD。2024年10月17日にアクセス。
5、7「Artificial Intelligence Risk Management Framework (AI RMF 1.0).」国立標準技術研究所、米国商務省。2023年1月
6「AIプライバシー権利章典の青写真:安全で効果的なシステム」大統領府科学技術政策局。2024年10月17日にアクセス。
8「EU Artificial Intelligence Act: Recital 27.」欧州連合。2024年6月13日。
EUのAI規制法について、ビジネスに与える影響、準備すべきこと、リスクの軽減方法、規制とイノベーションのバランスを取る方法をご確認ください。
生成AIがもたらす新たな課題、AIモデルおよびMLモデルを制御する必要性、信頼性と透明性を高めた説明可能なAIフレームワークを構築する手順をご紹介します。
生成AIモデル向けの製品ポートフォリオを活用し、コンプライアンスに準拠した倫理的な運用を推進する方法について説明しています。
watsonx.governanceを使ってどのように公平性の確保やドリフトの管理、品質の維持、説明可能性の向上を行うかについて理解を深めます。
2,000の組織を対象に、AIへの取り組みについて調査を行い、何が機能し、何が機能していないのか、どうすれば前進できるのかを明らかにしました。
ユースケースに最適なAI基盤モデルを選択する方法について説明します。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。
統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。