生成型人工知能 (生成AI) 技術の急速な台頭により、世界中の業種・業務に変革の時代が到来しました。過去 18 か月間、企業が生成AI をオペレーションに統合するケースが増え、その可能性を活用してプロセスを革新し合理化してきました。カスタマー・サービスの自動化から製品開発の強化まで、生成AIの活用は広大で影響力があります。IBMの最近のレポートによると、大企業の約 42% がAIを導入しており、このテクノロジーにより、販売、マーケティング、財務、カスタマー・サービスなどのさまざまな分野のナレッジ ワーク活動の最大 30% を自動化できるようになっています。
ただし、生成AIの導入の加速は、不正確さ、知的財産上の懸念、サイバーセキュリティの脅威などの重大なリスクももたらします。もちろん、これは、クラウド・コンピューティングなどの新しいテクノロジーを導入する企業の一連の事例のうちの 1 つの例にすぎませんが、セキュリティ原則を組み込むことが最初から優先事項であるべきだったことに後から気づくこともあります。今、私たちは、過去の失敗から学び、生成AIベースのエンタープライズ・アプリケーションを開発する際に、セキュア・バイ・デザインの原則を早期に採用することができます。
2023 年に注目すべきインシデントが発生しました。クラウド ストレージ バケットの設定ミスにより、Eメールアドレスや社会保障番号などの個人情報を含む複数の企業の機密データが漏洩しました。この侵害は、不適切なクラウド・ストレージ構成に関連するリスクと、風評被害による財務上の影響を浮き彫りにしました。
同様に、エンタープライズワークスペースのSaaS(Software-as-a-Service)アプリケーションの脆弱性により、2023年にセキュリティーで保護されていないアカウントを通じて不正アクセスが発生し、大規模なデータ侵害が発生しました。これにより、不十分なアカウント管理と監視の影響が浮き彫りになりました。これらのインシデントは、他の多くのインシデント(最近発行されたIBM データ侵害のコストに関する調査2024年に記載)の中でも、最初から AI 導入プログラムにセキュリティ対策が不可欠であることを強調しています。
企業が生成AIをオペレーションに急速に統合する中、最初からセキュリティーに取り組むことの重要性はいくら強調してもしすぎることはありません。AI テクノロジーは変革をもたらす一方で、新たなセキュリティ上の脆弱性をもたらします。AIプラットフォームに関連する最近の侵害事例は、これらのリスクとビジネスへの潜在的な影響を示しています。
ここ数か月におけるAI関連のセキュリティー侵害の例をいくつか紹介します。
1. ディープフェイク詐欺:あるケースでは、英国のエネルギー会社の CEO が、上司と話していると思い込んで 243,000 ドルを送金させられました。この詐欺は ディープフェイクテクノロジーを利用しており、AI 駆動型詐欺の可能性を浮き彫りにしました。
2. データポイズニング攻撃:攻撃者はトレーニング中に悪意のあるデータを導入することでAIモデルを破損し、誤った出力を引き起こすことができます。これは、サイバーセキュリティ企業の機械学習モデルが侵害され、脅威への対応に遅れが生じたときに確認されました。
3. AIモデルのエクスプロイト:チャットボットなどのAIアプリケーションの脆弱性により、機密データへの不正アクセスが多数発生しています。これらの侵害は、AIインターフェースを取り巻く堅牢なセキュリティー対策の必要性を浮き彫りにしています。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
AIセキュリティー侵害の影響は多岐にわたります。
企業は顧客向けアプリケーションに生成AIテクノロジーを急速に導入しています。サイバー攻撃者によってビジネスが中断されるリスクを軽減するには、アプリケーションを保護するための構造化されたアプローチを取ることが重要です。
生成AIアプリケーションを効果的に保護するには、企業はAIライフサイクル全体にわたる包括的なセキュリティー戦略を採用する必要があります。主な段階は 3 つあります。
1. データの収集と取り扱い: 暗号化や厳格なアクセス制御など、データの安全な収集と取り扱いを確保します。
2. モデルの開発とトレーニング: AIモデルの開発、トレーニング、微調整中に安全な手法を実装して、データ汚染やその他の攻撃から保護します。
3. モデル推論と実際の使用: AIシステムをリアルタイムで監視し、継続的なアセスメントを確実に行って、潜在的な脅威を検知して軽減します。
これら3つの段階は、一般的なクラウドベースのAIプラットフォームの責任共有モデル(下記参照)と並行して検討する必要があります。
生成AIを保護するためのIBMフレームワークには、これら3つの段階の詳細な説明と、従うべきセキュリティー原則が記載されています。これらは、大規模言語モデルとアプリケーションを実行する基盤となるインフラストラクチャ層のクラウド セキュリティ制御と組み合わされています。
生成AIへの移行により、企業はビジネス・アプリケーションのイノベーションを促進し、複雑なタスクを自動化し、効率、精度、意思決定を向上させながら、コストを削減し、ビジネス・プロセスの速度と機敏性を高めることができます。
クラウド導入の波からもわかるように、最初からセキュリティを優先することが重要です。AI導入プロセスの早い段階でセキュリティ対策を組み込むことで、企業は過去の失敗を重要なマイルストーンに変え、高度なサイバー脅威から身を守ることができます。この積極的なアプローチにより、急速に進化する AI 規制要件への準拠が保証され、企業とそのクライアントの機密データが保護され、利害関係者の信頼が維持されます。これにより、企業は安全かつ持続可能な方法でAIの戦略目標を達成できます。
IBMは、企業がAIテクノロジーを安全に導入できるよう支援する包括的なソリューションを提供しています。IBMは、コンサルティング、セキュリティサービス、堅牢なAIセキュリティフレームワークを通じて、組織がAIアプリケーションを大規模に構築およびデプロイし、透明性、倫理、コンプライアンスを確保できるよう支援しています。IBMのAI Security Discoveryワークショップは、お客様がAI導入の取り組みの早い段階でセキュリティー・リスクを特定して軽減できるよう支援する重要な最初のステップです。
詳細については、以下の参考情報をご覧ください。