EU AI規制法への準備:ガバナンスを正しく行う
2023年2月8日
読了時間:4分

欧州人工知能規制法は、欧州連合内の人工知能(AI)に対する人間による新たなレベルの監視と規制遵守を推進しています。プライバシーに関するGDPRと同様に、EU AI規制法は、世界中で今後のAI規制の方向性を決める可能性を秘めています。

2024年初め、27の加盟国で構成される欧州議会は全会一致で EU AI 法を承認しました。この法律は現在、立法プロセスの最終段階を経ており、2024年後半に段階的に施行される予定です。EU AI規制法の規定(ibm.com外部のリンク)を理解し、コンプライアンスに備えることは、AIを開発、導入、または使用している、あるいは計画している組織にとって不可欠です。

AI規制法の目的は、「研究室から市場に至るまで卓越したAIの世界的ハブとしての欧州の地位を強化し、定められた価値観とルールを欧州のAIが遵守し、AIの可能性を産業利用に活用することを保証する」ことです。

欧州議会ニュース(ibm.com外部のリンク)

EU AI規制法の概要

EU AI規制法の主な焦点は、リスク管理、データ保護、品質管理システム、透明性、人的監視、正確性、堅牢性、サイバーセキュリティーの分野における規制コンプライアンスを強化することです。これは、AIシステムの開発と展開の方法に関する透明性と説明責任を促進し、市場に出回っているAI製品を個人が安全に使用できるようにすることを目的としています。

EU AI規制法は、医療、金融、エネルギーなどの高度に規制された業界など業界全体で責任を持ってAIを開発および導入するという課題に対処することを目的としています。保険、銀行、小売などの顧客に不可欠なサービスを提供する業界に対して、同法は、AIの使用が顧客の権利にどのように影響するかを詳述する基本的権利影響評価の使用を義務付けています。

EU AI規制法の基盤:許容できないリスクを防ぐための保護措置

EU AI規制法では、大規模言語(LLM)などの生成AIシステムや基盤モデルを含む汎用AIモデルが、体系的なリスク階層に基づく分類システムに従うことが義務付けられています。リスク階層が高いほど、モデルの評価、文書化、報告などの透明性が要求されます。また、システム・リスクの評価と軽減、重大なインシデントの報告、サイバーセキュリティーからの保護の提供も含まれます。さらに、これらの透明性要件には、最新の技術文書の維持、モデル・トレーニングに使用されるコンテンツの概要の提供、欧州著作権法の遵守が含まれます。

EU AI規制法は、リスクベースのアプローチに従っており、 AIシステムが個人の健康、安全、または基本的権利にもたらすリスク・レベルを階層化して分類しています。次の3つのレベルがあります。

  • スパム・フィルターやビデオ・ゲームのような低リスクのシステムには、透明性の義務以外、法律上の要件はほとんどありません。
  • 自律走行車、医療機器、重要なインフラ(水道、ガス、電気など)のようなリスクの高いAIシステムは、開発者と利用者が追加の規制要件を遵守する必要があります。
    • リスク管理を実施し、正確性、堅牢性、および人間による監視を含む説明責任の枠組みを提供します。
    • ユーザー、記録管理、技術文書に規定された透明性要件を満たす
  • 例外なく禁止されているシステムは、ソーシャル・スコアリング、顔認識、感情認識、公共スペースでのリモート生体認証システムなど、容認できないリスクをもたらすシステムです。

また、EU AI規制法では、チャットボットの使用時や感情認識システムの使用時に顧客に通知する方法についても規則が定められています。ディープフェイクにラベルを付け、メディアで生成AI コンテンツがいつ使用されるかを特定するための追加の要件があります。

EU AI規制法に準拠しないと、高いコストがかかる可能性があります(ibm.com外部のリンク)。

誤った情報を提供すると、750万ユーロまたは企業の世界年間総売上高の1.5%(いずれか高い方)が科せられます。EU AI規制法の義務違反には、1,500万ユーロまたは企業の世界年間総売上高の3%(いずれか高い方))が科せられます。

— VentureBeat

欧州のAI規制法は現在、AI規制の最も包括的な法的枠組みです。世界中の政府が注目し、市民、企業、政府機関が潜在的なリスクから確実に保護されるように、AIテクノロジーを規制する方法について活発に議論しています。さらに、企業の取締役会から消費者までの利害関係者が、AIに関しては信頼性、透明性、公平性、説明責任を優先し始めています。

IBMと共に今後の規制に備える

watsonx.governanceにより、責任ある、透明性の高い、説明可能なAIワークフローを加速

IBM® watsonx.governance™により、AIガバナンス、つまり組織のAI活動の指示、管理、監視を加速できます。ソフトウェア自動化を採用して、リスクを軽減し、ポリシー要件を管理し、生成AIモデルと予測機械学習(ML)モデルの両方のライフサイクルを管理する能力を強化します。

Watsonx.governanceを使用すると、次の3つの主要な領域でモデルの透明性、説明可能性、文書化を推進できます。

  • コンプライアンス AIの透明性を管理し、ポリシーと標準へのコンプライアンスに対処できるようにします。データを主要なリスク管理に結び付け、ファクトシートを使用して、調査や監査をサポートするモデルのメタデータの取得とレポート作成を自動化します。
  • リスク管理 リスクしきい値を事前設定し、AIモデルのリスクを先見的に検出して軽減できるようになります。公平性、動向、バイアス、評価指標に対するパフォーマンス、有害な言葉の事例、および個人を特定できる情報(PII)の保護を監視します。ユーザーベースのダッシュボードとレポートを使用して、組織のリスクに関する知見を取得します。
  • ライフサイクル・ガバナンス — 統合されたワークフローと承認を使用して、ライフサイクル全体にわたって生成AIと予測機械学習モデルの両方を管理するのに役立ちます。ユースケース、処理中の変更要求、課題、問題、割り当てられたタスクのステータスを監視します。

お客様は、自己の責任で関連法規および規則を順守しなければならないものとします。IBMは法律上の助言を提供することはなく、また、IBMのサービスまたは製品が、いかなる法規もしくは規則をお客様が順守していることの裏付けを、表明ならびに保証するものでもありません。

 
著者
Heather Gentile Director of watsonx.governance Product Management, IBM Data and AI Software