大小さまざまな企業にとって、人工知能(AI)はイノベーション、機会、競争優位性など、さまざまな刺激的な言葉と結びついています。しかし、そのリストにはもうひとつ、コンプライアンスという言葉が必要です。
企業の約73%がすでにAI分析および生成AIを使用しており、トップクラスの業績を上げているCEOの72%が、競争上の優位性は誰が最も高度なAIを使用しているかによって決まると述べています。1
しかし、このようなAIの利用ブームとそのエキサイティングな可能性は、AI搭載テクノロジーの倫理と安全性に対する懸念の高まりと同時にもたらされます。もし開発に欠陥があり、偏ったアルゴリズムが差別の永続化につながれば(たとえば、採用、法の執行、金融的な決定において)、その結果は悲惨かつ長期に及ぶかもしれません。
その結果、企業、国、政策立案者はAIガバナンスを検討し、AIの使用方法と開発方法に関する新しいルールを設定しています。AIコンプライアンスとは何か、企業にとってそれが重要な理由、そして急速に進化する規制環境の中でコンプライアンスを維持するために企業ができることについて説明します。
AIコンプライアンスとは、企業がAIシステムの使用に適用される法律や規制を遵守し続けるための意思決定と実践を指します。これらの標準には、組織がAIモデルとそのアルゴリズムを責任を持って開発できるようにするために設計された法律、規制、および社内ポリシーが含まれます。
しかし、AIのコンプライアンス・プロセスは、法的要件を満たすだけにとどまりません。また、利害関係者との信頼関係を構築し、意思決定における透明性と公正さを促進することでもあります。また、安全面でも不可欠です。AIが悪意のある攻撃者に悪用される可能性があることを考えると、強固なサイバーセキュリティ対策とリスクマネジメント戦略がAIコンプライアンスの中核となります。
AIコンプライアンス・プロセスは、企業がAIツールの使用に伴う財務的、法的、評判的リスクを回避するのに役立ちます。
AIを使用する企業が増えれば増えるほど、テクノロジーが予期せぬ方向に進んだり、誤った方向に進んだりする状況に遭遇する可能性が高くなります。たとえば、ある企業では、トレーニングに使用された教材が原因で性差別が根強く残っていることがわかり、AI採用ツールの使用を断念しました。2また、調査の結果、アルゴリズム主導の融資申請の中には、有色人種の申請者に対する差別につながる場合があることが判明しています。3
こうした問題を懸念し、企業によるAIの開発方法と使用方法を標準化する取り組みが増えています。2024年、欧州連合はEU AI法の施行により、AIに関する規則を定めた最初の主要市場となりました。米国や中国を含む他の地域でも、独自のAI規制を策定しています。
コンプライアンス違反は時に高くつきます。EUの一般データ保護規則(GDPR)に基づき、企業は最大2,000万ユーロまたは全世界の年間売上高の4%のいずれか高い方の罰金を科せられる可能性があります。米国では、連邦取引委員会(FTC)が、偏った機械学習アルゴリズムの使用など、AI関連の違反に対して、企業に執行措置を講じることができる。4
ブランドの評判を守るためにも、コンプライアンスは不可欠です。KPMG社による2024年の調査では、消費者の78%が、AIを使用する組織には、AIが倫理的に開発されていることを徹底する責任があると考えていることがわかりました。5これを怠ると、ビジネスや消費者の信頼を失うことになりかねません。
AIシステムの信頼性、透明性、説明責任性を確保することで、企業はイノベーションを推進し、効率を向上させ、市場における競争上の優位性を獲得することができます。
もし、規制遵守がひとつの明確な要求事項を満たすことであるならば、進む道は簡単でしょう。しかし、AIが急速に進化するにつれ、そのを管理を目的としたガイドラインも多様化しています。
テクノロジー自体がコンプライアンス活動を複雑にします。AIモデルとアルゴリズムを理解して解釈することは、特に多くのAIシステムがリアルタイムで動作するため、技術的に困難な場合があります。このスピードで進化する規制に対応し続けることは困難な場合があり、AIの急速な進歩により、企業はコンプライアンス・プログラムを常に適応させていく必要があります。
国または地域は、テクノロジーの世界的な管理方法を再構築する可能性のあるAI標準を制定する過程にあります。こうしたAI固有の法律や規制に加えて、企業やAIプロバイダーは、データ・プライバシー、差別、サイバーセキュリティーに関する複雑な規則に準拠する必要もあります。問題をさらに複雑にしている要素として、これらの要件は、特定の地域で事業を展開する企業やAIプロバイダーだけでなく、その地域で事業を行うすべての人にも適用される場合があります。
主な問題と規制には、次のようなものがあります。
米国にはまだ包括的な規制はありませんが、連邦および州レベルではさまざまなコンプライアンス要件が存在します。たとえば、人工知能分野における主導権維持に関する大統領令は、AIの開発と利用に関するガイドラインを定めています。医療保険の相互運用性と説明責任に関する法律(HIPAA法)や公正信用報告法(FCRA)など、業界固有の法律もAIに適用される場合があります。
2023年8月、中国は、生成AIサービスを管理するための中間措置(Interim Measures for the Management of Generative Artificial Intelligence Services)と呼ばれる、生成AIに関する特定の規制を導入しました。これらの施策には、データ・プライバシー、ラベリング、生成AIライセンスに関するコンテンツの標準およびルールが含まれます。また中国には、AI駆動型の推奨アルゴリズムやディープフェイクなどの深層合成テクノロジーを対象とした特定の規制もあります。
AIコンプライアンスはすべての分野で重要ですが、次のような業種・業務では特に重要です。
ヘルスケアにおけるAIの使用例には、病気の診断、新薬の発見、個別化医療などがあります。患者のプライバシーを保護する、米国医療保険の相互運用性と説明責任に関する法律(HIPAA法)などの規制を遵守しない場合、罰金や法的影響につながる可能性があります。また、偏ったアルゴリズムや十分に訓練されていないアルゴリズムは、誤診や患者に対する不適切な治療計画につながる可能性があります。
AIは、詐欺検出やリスク評価からマネーロンダリング防止活動まで、金融分野で多くの用途に使用されています。ただし、これらのAIアプリケーションは、米国の公正信用報告法(FCRA)やEUの金融商品市場指令(MiFID II)などの規制に準拠する必要があります。AIコンプライアンスの取り組みは、ローン申請やその他の重要な意思決定におけるアルゴリズムの差別を防ぐことを目的としています。
人事担当者は、日常的なタスクのオートメーション、および履歴書の審査、候補者のアセスメント、従業員の監視の効率化のためにAI搭載ツールをますます頻繁に使用しています。しかし、アルゴリズムが歪んだデータや不適切なデータでトレーニングされている場合、不公平かつ場合によっては違法なバイアスが生じる可能性があります。差別防止法とデータ保護規制を遵守することで、透明性、公平性、プライバシーを確保できます。
企業は、既存のAI規制要件を遵守し、将来の規則に備える必要性をますます認識するようになっています。国際的なコンプライアンスとリスクの専門家を対象としたある調査では、回答者の半数超が、データ・プライバシー、アルゴリズムの透明性、人工知能の誤用や誤解に懸念を抱いていることがわかりました。6
経営幹部を対象にした別の調査によると、80%がモデルに対する信頼と自信を築くために、人工知能への責任あるアプローチへの投資を増やす計画であることがわかりました。7結果として、多くの企業がAIコンプライアンスを確保するための積極的な措置を講じています。
一部の企業では、AIの倫理的な開発と使用のための社内方針、手順、責任を概説するフレームワークを確立しています。たとえば、Microsoftが発表した「責任あるAI標準」には、定期的なリスクアセスメントの実施、データ保護対策の実施、意思決定における透明性と説明責任性の優先などが含まれています。8また、2023年に更新されたGoogleのAI原則では、AI開発における公平性、透明性、プライバシーの重要性が強調されています。9
企業はまた、規制当局や業界の利害関係者と積極的に関わり、規制の変更やコンプライアンス上の問題について常に情報を得ようとしています。IBMがビジネスリーダーを対象に実施した調査では、74%が人工知能について同僚との議論に参加したり、政策立案者と協力したりすることを計画していることがわかりました。こうした取り組みは、企業が新たな規制に備え、将来のガイドライン策定に参加する上で役立ちます。
コンプライアンスへの取り組みを合理化するために、企業はさまざまなAIコンプライアンス・ツールやテクノロジーに投資しています。たとえば、説明可能なAI(XAI)ツールは、企業がAIモデルによって行われた決定を理解して解釈するのに役立ち、AIガバナンス・ポートフォリオはリアルタイムの監視および監査機能を提供できます。IBM® watsonx.governanceなどのガバナンス製品は、規制順守の維持やリスク評価、モデル進化の管理のためのツールキットを提供します。
AIテクノロジーの進歩に伴い、その使用に伴うリスクと課題も増加しています。重要なのは事前対応型のアプローチを取ることです。つまり、堅牢なAIガバナンス・フレームワークを開発・実装するために必要なリソース、専門性、テクノロジーに投資することを意味します。また、AIシステムの開発と使用における透明性、説明責任性、信頼の文化を育む必要もあります。AIコンプライアンスを優先することで、企業はこれらのリスクを軽減し、AIの可能性を最大限に活用できるようになります。
1 PwC’s 2024 US Responsible AI Survey、プライスウォーターハウスクーパーズ社、2024年4月
2 Amazon scraps secret AI recruiting tool that showed bias against women、ロイター、2018年10月
3 The secret bias hidden in mortgage-approval algorithms、AP通信、2021年8月
4 California company settles FTC allegations it deceived consumers about use of facial recognition in photo storage app, Federal Trade Commission, January 2021、連邦取引委員会、2021年1月
5 KPMG Generative AI Consumer Trust Surve、KPMG、2024年1月
6 How can Artificial Intelligence transform risk and compliance?、ムーディーズ、2024年2月
7 FromAIcompliance to Competitive advantage: Becoming responsible by design、アクセンチュア、2022年6月
8 Microsoft’s Responsible AI Standard、Microsoft、2022年6月
9 Google AI: Our Principles、Google、2023年3月
EUのAI規制法について、ビジネスに与える影響、準備すべきこと、リスクの軽減方法、規制とイノベーションのバランスを取る方法をご確認ください。
生成AIがもたらす新たな課題、AIモデルおよびMLモデルを制御する必要性、信頼性と透明性を高めた説明可能なAIフレームワークを構築する手順をご紹介します。
生成AIモデル向けの製品ポートフォリオを活用し、コンプライアンスに準拠した倫理的な運用を推進する方法について説明しています。
watsonx.governanceを使ってどのように公平性の確保やドリフトの管理、品質の維持、説明可能性の向上を行うかについて理解を深めます。
2,000の組織を対象に、AIへの取り組みについて調査を行い、何が機能し、何が機能していないのか、どうすれば前進できるのかを明らかにしました。
ユースケースに最適なAI基盤モデルを選択する方法について説明します。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。
統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。