シャドーAIとは、情報技術(IT)部門の正式な承認や監督なしに、従業員やエンドユーザーがAIツールやアプリケーションを使用することです。
シャドーAIの一般的な例としては、OpenAI社のChatGPTなどの生成 AIアプリケーションを不正に使用して、テキスト編集やデータ分析などのタスクを自動化することが挙げられます。従業員は、生産性を高め、プロセスを迅速化するために、これらのツールを頻繁に利用します。しかし、ITチームはこれらのアプリが使用されていることを認識していないため、従業員は知らないうちに組織をデータ・セキュリティー、コンプライアンス、および会社の評判に関する重大なリスクにさらしてしまう可能性があります。
CIOとCISOにとって、AIガバナンスとセキュリティ・イニシアティブを組み込んだ強固なAIストラテジーを策定することは、効果的なAIリスク管理の鍵です。コンプライアンスとサイバーセキュリティの重要性を強調するAIポリシーにコミットすることで、リーダーはAIテクノロジーのメリットを享受しながら、シャドーAIのリスクを管理することができます。
シャドーAIの影響について理解するには、シャドーITと区別すると良いでしょう。
シャドー ITは、IT部門またはCIOの承認、知識、または監視なしに、企業ネットワーク上にソフトウェア、ハードウェア、または情報テクノロジーを導入することを指します。従業員は、既存のソリューションでは不十分だと感じたり、承認されたオプションでは遅すぎると考えたりした場合に、未承認のAIテクノロジーを使用する可能性があります。一般的な例としては、個人用クラウド・ストレージ・サービスや承認されていないプロジェクト管理ツールの使用が挙げられます。
2023年から2024年にかけて、組織がAIテクノロジーを受け入れるに連れ、企業の従業員による生成AIアプリケーションの採用率は74%から96%に増加しました。1これに伴い、シャドーAIも拡大しました。今日、従業員の3分の1以上(38%)が、雇用主の許可なくAIツールで機密情報を共有していることを認めています。2
シャドーAIは、データ漏洩、コンプライアンス違反に対する罰金、深刻な評判への被害など、企業をいくつかのリスクにさらす可能性があります。
シャドーAIに関連する最大のリスクの1つは、データ侵害の可能性です。AIの使用に関する監視体制が整っていないと、従業員が意図せず機密情報を公開する可能性があり、それがデータ・プライバシーの懸念につながります。CISOを対象とした最近の世論調査によると、英国企業の5社に1社が、従業員が生成AIを使用したことによるデータ漏洩を経験しています。3データ漏洩リスクの高まりは、回答者の4人に3人が、外部からの脅威よりも内部関係者が組織にとってより大きなリスクをもたらすと回答した理由かもしれません。4
不正なAIモデルに依存すると、意思決定の品質に影響を及ぼす可能性があります。適切なガバナンスがなければ、これらのモデルによって生成された出力は、組織の目的や倫理基準と一致しない可能性があります。偏ったデータ、過剰適合、モデル・ドリフト、不適切な戦略的選択につながり、企業の評判を損なう可能性のあるAIリスクの例です。
不正なAIの使用は、企業の品質基準に矛盾し、消費者の信頼を損なう可能性もあります。Sports Illustrated社がAI生成の著者が作成した記事を公開したことが暴露されたときや、Uber Eats社がAI生成の食品画像を使用したことについて召喚されたときの反発を考えてみましょう。
リスクがあるにもかかわらず、シャドーAIはいくつかの理由から一般的になりつつあります。組織はデジタル・トランスフォーメーションを受け入れてきており、その延長として、ワークフローと意思決定の再構築を目的としたAIテクノロジーの統合を受け入れています。
ユーザーフレンドリーなAIツールの普及により、従業員は高度なAIソリューションに簡単にアクセスして、自分の能力を強化できるようになりました。多くのAIアプリケーションは、サービスとしてのソフトウェア(SaaS)製品として提供されており、ITチームやセキュリティ・チームを必ずしも介さずに、個人がこれらのツールをすぐに導入できます。AIの民主化により、従業員は以下を行う上で新たな方法を見つけています。
シャドーAIは組織全体にさまざまな形で現れますが、多くの場合、効率とイノベーションの必要性によって引き起こされます。シャドーAIの一般的な例としては、AI搭載チャットボット、データ分析用のMLモデル、マーケティング・オートメーション・ツール、データの可視化ツールなどがあります。
カスタマー・サービスでは、問い合わせに対する回答を生成するために、チームが不正にAIチャットボットを利用する場合があります。たとえば、カスタマー・サービス担当者は、会社が承認した資料を見ずに、チャットボットに回答を求めて顧客の質問に答えようとする場合があります。これにより、一貫性のないメッセージや虚偽のメッセージ、顧客とのコミュニケーションミスにつながり、担当者の質問に機密性の高い企業データが含まれている場合には、セキュリティー・リスクが生じる可能性があります。
多くの組織では、AIを搭載したデータの可視化ツールを使用して、ヒートマップ、折れ線グラフ、棒グラフなどをすばやく作成しています。これらのツールは、複雑なデータの関係や洞察をわかりやすい方法で表示することで、ビジネス・インテリジェンスを強化するのに役立ちます。しかし、ITの承認なしに企業データをインプットすると、報告の不正確性や潜在的なデータ・セキュリティーの問題が生じる可能性があります。
シャドーAIのリスクを管理するために、組織は柔軟性とイノベーションの必要性を認識しつつ、責任あるAIの使用を促進するいくつかのアプローチを検討する必要があります。
IT部門、セキュリティー・チーム、事業単位間のオープンな対話により、AIの機能と制限についての理解を深めることができます。コラボレーションの文化は、組織がどのAIツールが有益かを特定するのに役立つだけでなく、データ保護プロトコルに対するコンプライアンスを徹底する上でも役立ちます。
AIの使用に関するガードレールはセーフティネットとなり、従業員が定義されたパラメーターの範囲内で承認されたツールのみを使用できるようにすることができます。ガードレールには、外部AIの使用に関するポリシー、AIアプリケーションをテストするためのサンドボックス環境、または不正な外部プラットフォームをブロックするファイアウォールなどが含まれます。
すべてのシャドーAIを排除することは困難かもしれません。そのため、組織はネットワーク監視ツールを実装してアプリケーションの使用状況を追跡し、アクセス制御を確立して未承認のソフトウェアを制限することができます。定期的な監査とコミュニケーションチャネルの積極的な監視も、不正なアプリが使用されているかどうか、またどのように使用されているかを特定するのに役立ちます。
シャドーAIの環境は常に進化しており、組織に新たな課題をもたらしています。企業は、ニュースレターや四半期ごとの更新情報などの定期的なコミュニケーションを確立して、シャドーAIと関連するリスクについて従業員に伝えることができます。
不正なAIツールの使用による影響に対する認識を高めることで、組織は責任あるAIを使用する文化を育むことができます。この理解により、従業員は新しいアプリケーションをデプロイする前に、承認されている代替案を探したり、IT部門に相談したりするようになるかもしれません。
すべてのリンク先は、ibm.comの外部にあります。
1 Sensitive Data Sharing Risks Heightened as GenAI Surges, Infosecurity Magazine, 17 July 2024.
2 Over a Third of Employees Secretly Sharing Work Info with AI, Infosecurity Magazine, 26 September 2024.
3 Fifth of CISOs Admit Staff Leaked Data Via GenAI, Infosecurity Magazine, 24 April 2024.
4 Article 99: Penalties, EU Artificial Intelligence Act.
EUのAI規制法について、ビジネスに与える影響、準備すべきこと、リスクの軽減方法、規制とイノベーションのバランスを取る方法をご確認ください。
生成AIがもたらす新たな課題、AIモデルおよびMLモデルを制御する必要性、信頼性と透明性を高めた説明可能なAIフレームワークを構築する手順をご紹介します。
生成AIモデル向けの製品ポートフォリオを活用し、コンプライアンスに準拠した倫理的な運用を推進する方法について説明しています。
watsonx.governanceを使ってどのように公平性の確保やドリフトの管理、品質の維持、説明可能性の向上を行うかについて理解を深めます。
2,000の組織を対象に、AIへの取り組みについて調査を行い、何が機能し、何が機能していないのか、どうすれば前進できるのかを明らかにしました。
ユースケースに最適なAI基盤モデルを選択する方法について説明します。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。
統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。