生成AIは内部脅威の攻撃対象領域をどのように拡大しているのか

カジュアルでモダンなオフィスの役員室スペースで、ノートPCで作業する若いビジネスマン。

生成AIの導入が急増するにつれて、内部脅威のリスクも増大しています。そのため、企業はますますセキュリティと機密性のポリシーを再考する必要に迫られています。

わずか数年で、 人工知能(AI)は仕事の世界を根本的に変えました。知識労働者の61% が現在、 日常業務で生成AIツール、特にOpenAIの ChatGPTを使用しています。同時にビジネス・リーダーは、しばしば機会逸失のおそれから、生成AIを使用したツールに数十億ドル規模の投資をしています。チャットボットだけでなく、画像合成装置、音声クローン作成ソフトウェア、さらにはバーチャル・アバターを作成するためのディープフェイク・ビデオテクノロジーにも投資しているのです。

生成AIが人間と見分けがつかないようになるのは、まだ先のことです。たとえそれが実際に起こったとしても、それに伴う倫理的リスクとサイバー・リスクは増大し続けるでしょう。結局のところ、人や物が本物かどうかを見分けることができなくなれば、人々が無意識のうちに機械に操られるリスクが高まるのです。

生成AIとデータ漏洩のリスク

生成AI時代のセキュリティーに関する議論の多くは、ソーシャル・エンジニアリングやその他の外部脅威への影響に関するものです。しかし情報セキュリティー担当者は、このテクノロジーが内部脅威の攻撃対象領域も大幅に拡大することを見落としてはいけません。

生成AIツールの導入が急速に進んでいる中、多くの企業はすでにトラブルに巻き込まれています。ちょうど昨年にはSamsung社で、従業員がOpenAIのChatGPTとの会話で機密データを共有した疑いがあったために職場での生成AIツールの使用を禁止したという報道がありました。

OpenAIはデフォルトですべての会話を記録・アーカイブしており、それを将来的な 大規模言語モデル(LLM)の学習に活用する可能性もあります。このため、企業秘密などの機密情報が、ユーザーのプロンプトへの応答として後から再浮上する可能性があります。昨年12月、研究者はChatGPTのデータ漏洩に対する脆弱性をテストし、 LLMのトレーニング・データ(PDF)を抽出する簡単な手法を発見してその概念を証明しました。OpenAIはその後、この脆弱性にパッチを適用してきた可能性はありますが、この件が最後になる可能性は低いでしょう。

ビジネスにおける生成AIの無制限な使用が急速に増加する中、IT部門はイノベーションとサイバー・リスクの適切なバランスを追求する必要があります。セキュリティー・チームにとってシャドーITという用語はすでになじみのあるものかもしれません。しかしここでいう新しい脅威はシャドーAI、つまり組織のガバナンス外でのAIの使用です。こうした事態を防ぐために、ITチームはポリシーを再検討し、生成AIツールの責任ある使用を強化するためのあらゆる措置を講じる必要があります。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

独自のAIシステムには独自のリスクが伴う

これらの脅威に対処するための明確な方法は、特定のビジネス・ユースケースに合わせてカスタマイズされた独自のAIソリューションを構築することでしょう。企業はゼロからモデルを構築する場合もあれば、オープンソースの基盤モデルから始める場合もあります。どちらの選択肢もリスクがないわけではありません。ただし、オープンソース・モデルに伴うリスクの方が高い傾向にある一方、独自AIシステムに関するリスクはもう少し複雑なものがあり、いずれも深刻なものです。

AI搭載機能がビジネス・ソフトウェア・アプリケーションで普及するにつれ、内部関係者を含む悪意のある攻撃者にとって、AI搭載機能は魅力ある標的になります。攻撃者がAIモデルのトレーニングに使用するデータを改ざんするデータポイズニングは、そのような例の一つです。カスタマー・サービスでのチャット、製品の説明、ブランド・ガイドラインなどでよくあることですが、問題のあるデータが組織全体で広くアクセス可能な場合は、内部脅威も現実的なものとなります。そのようなデータを使用して独自のAIモデルをトレーニングする場合は、意図的に、または意図せずに、その整合性が損なわれないよう確認する必要があります。

独自のAIモデルにアクセスできる悪意のあるインサイダーがリバースエンジニアリングを試みる可能性があります。例えば独自のシステムにはカスタマイズされたロギング・監視ソリューションが使われていることが多く、社内の知識がある人は監査証跡を回避できるかもしれません。

オフィスでミーティングをするビジネスチーム

IBMお客様事例

お客様のビジネス課題(顧客満足度の向上、営業力強化、コスト削減、業務改善、セキュリティー強化、システム運用管理の改善、グローバル展開、社会貢献など)を解決した多岐にわたる事例のご紹介です。

AIソフトウェアのサプライチェーンを保護する

モデル脆弱性のエクスプロイテーションは重大なリスクをもたらします。オープンソース・モデルにはコミュニティーの関与を通じて迅速にパッチが適用される可能性がありますが、独自モデルに存在する可能性のある隠れた欠陥にはそれが当てはまりません。これらのリスクを軽減するためには、ITリーダーがAIソフトウェアのサプライチェーンを保護することが不可欠です。AIのイノベーションがビジネスに容認できないリスクを及ぼさないようにする唯一の方法は、透明性と監視です。