AIを導入する際にセキュア・バイ・デザイン原則を採用する方法

サイバーセキュリティの

共同執筆者

Hari Hayagreevan

Technical Leader, Security Architect

IBM

Mostafa Torbon

Segment Leader Cloud & Platform Security DACH

CSS - IBM

生成型人工知能 (生成AI) 技術の急速な台頭により、世界中の業種・業務に変革の時代が到来しました。過去 18 か月間、企業が生成AI をオペレーションに統合するケースが増え、その可能性を活用してプロセスを革新し合理化してきました。カスタマー・サービスの自動化から製品開発の強化まで、生成AIの活用は広大で影響力があります。IBMの最近のレポートによると、大企業の約 42% がAIを導入しており、このテクノロジーにより、販売、マーケティング、財務、カスタマー・サービスなどのさまざまな分野のナレッジ ワーク活動の最大 30% を自動化できるようになっています。

ただし、生成AIの導入の加速は、不正確さ、知的財産上の懸念、サイバーセキュリティの脅威などの重大なリスクももたらします。もちろん、これは、クラウド・コンピューティングなどの新しいテクノロジーを導入する企業の一連の事例のうちの 1 つの例にすぎませんが、セキュリティ原則を組み込むことが最初から優先事項であるべきだったことに後から気づくこともあります。今、私たちは、過去の失敗から学び、生成AIベースのエンタープライズ・アプリケーションを開発する際に、セキュア・バイ・デザインの原則を早期に採用することができます。

クラウド・トランスフォーメーション・ラッシュから得た教訓

最近のクラウド導入の波は、テクノロジー移行の早い段階でセキュリティーを優先するための貴重な洞察を提供します。多くの組織は、コスト削減、拡張性、災害復旧などのメリットを求めてクラウドテクノロジーを採用しました。しかし、こうしたメリットを急いで享受しようとするあまり、セキュリティ面での見落としが生じ、誤った設定による大規模な侵害が発生するケースが多くありました。次のグラフは、これらの構成ミスの影響を示しています。これは、初期攻撃ベクトル別のデータ侵害のコストと頻度を示しており、クラウドの誤った構成による平均コストは 398 万ドルと非常に高いことが示されています。

クラウドの構成ミスとその影響を示すグラフ「セキュア・バイ・デザイン」。 図1:単位は百万米ドル。全侵害に占める割合(IBM Cost of a Data Breach report 2024)

2023 年に注目すべきインシデントが発生しました。クラウド ストレージ バケットの設定ミスにより、Eメールアドレスや社会保障番号などの個人情報を含む複数の企業の機密データが漏洩しました。この侵害は、不適切なクラウド・ストレージ構成に関連するリスクと、風評被害による財務上の影響を浮き彫りにしました。

同様に、エンタープライズワークスペースのSaaS(Software-as-a-Service)アプリケーションの脆弱性により、2023年にセキュリティーで保護されていないアカウントを通じて不正アクセスが発生し、大規模なデータ侵害が発生しました。これにより、不十分なアカウント管理と監視の影響が浮き彫りになりました。これらのインシデントは、他の多くのインシデント(最近発行されたIBM データ侵害のコストに関する調査2024年に記載)の中でも、最初から AI 導入プログラムにセキュリティ対策が不可欠であることを強調しています。

AIトランスフォーメーション・プログラムにおける早期のセキュリティー対策の必要性

企業が生成AIをオペレーションに急速に統合する中、最初からセキュリティーに取り組むことの重要性はいくら強調してもしすぎることはありません。AI テクノロジーは変革をもたらす一方で、新たなセキュリティ上の脆弱性をもたらします。AIプラットフォームに関連する最近の侵害事例は、これらのリスクとビジネスへの潜在的な影響を示しています。

ここ数か月におけるAI関連のセキュリティー侵害の例をいくつか紹介します。

1. ディープフェイク詐欺:あるケースでは、英国のエネルギー会社の CEO が、上司と話していると思い込んで 243,000 ドルを送金させられました。この詐欺は ディープフェイクテクノロジーを利用しており、AI 駆動型詐欺の可能性を浮き彫りにしました。

2. データポイズニング攻撃:攻撃者はトレーニング中に悪意のあるデータを導入することでAIモデルを破損し、誤った出力を引き起こすことができます。これは、サイバーセキュリティ企業の機械学習モデルが侵害され、脅威への対応に遅れが生じたときに確認されました。

3. AIモデルのエクスプロイト:チャットボットなどのAIアプリケーションの脆弱性により、機密データへの不正アクセスが多数発生しています。これらの侵害は、AIインターフェースを取り巻く堅牢なセキュリティー対策の必要性を浮き彫りにしています。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

AIセキュリティー侵入がビジネスに与える影響

AIセキュリティー侵害の影響は多岐にわたります。

  • 金銭的損失:侵害は直接的な金銭的損失と、軽減活動に関連する多大なコストをもたらす可能性があります。
  • 業務の混乱:データポイズニングやその他の攻撃により業務が混乱し、誤った意思決定や脅威への対応の遅れにつながる可能性があります。
  • 評判の失墜:違反は企業の評判を損ない、顧客の信頼と市場シェアを低下させる可能性があります。

企業は顧客向けアプリケーションに生成AIテクノロジーを急速に導入しています。サイバー攻撃者によってビジネスが中断されるリスクを軽減するには、アプリケーションを保護するための構造化されたアプローチを取ることが重要です。

オフィスでミーティングをするビジネスチーム

IBMお客様事例

お客様のビジネス課題(顧客満足度の向上、営業力強化、コスト削減、業務改善、セキュリティー強化、システム運用管理の改善、グローバル展開、社会貢献など)を解決した多岐にわたる事例のご紹介です。

生成AIアプリケーションを保護するための3つのアプローチ

生成AIアプリケーションを効果的に保護するには、企業はAIライフサイクル全体にわたる包括的なセキュリティー戦略を採用する必要があります。主な段階は 3 つあります。

1. データの収集と取り扱い: 暗号化や厳格なアクセス制御など、データの安全な収集と取り扱いを確保します。

2. モデルの開発とトレーニング: AIモデルの開発、トレーニング、微調整中に安全な手法を実装して、データ汚染やその他の攻撃から保護します。

3. モデル推論と実際の使用: AIシステムをリアルタイムで監視し、継続的なアセスメントを確実に行って、潜在的な脅威を検知して軽減します。

これら3つの段階は、一般的なクラウドベースのAIプラットフォームの責任共有モデル(下記参照)と並行して検討する必要があります。

図2:生成AIの安全な使用 – 責任共有のマトリックス

生成AIを保護するためのIBMフレームワークには、これら3つの段階の詳細な説明と、従うべきセキュリティー原則が記載されています。これらは、大規模言語モデルとアプリケーションを実行する基盤となるインフラストラクチャ層のクラウド セキュリティ制御と組み合わされています。

「セキュア・バイ・デザイン」のグラフ、IBMは生成AIフレームワークを保護します。 図3:生成AIを保護するためのIBMフレームワーク

セキュリティーとの進歩のバランス

生成AIへの移行により、企業はビジネス・アプリケーションのイノベーションを促進し、複雑なタスクを自動化し、効率、精度、意思決定を向上させながら、コストを削減し、ビジネス・プロセスの速度と機敏性を高めることができます。

クラウド導入の波からもわかるように、最初からセキュリティを優先することが重要です。AI導入プロセスの早い段階でセキュリティ対策を組み込むことで、企業は過去の失敗を重要なマイルストーンに変え、高度なサイバー脅威から身を守ることができます。この積極的なアプローチにより、急速に進化する AI 規制要件への準拠が保証され、企業とそのクライアントの機密データが保護され、利害関係者の信頼が維持されます。これにより、企業は安全かつ持続可能な方法でAIの戦略目標を達成できます。

IBM の支援について

IBMは、企業がAIテクノロジーを安全に導入できるよう支援する包括的なソリューションを提供しています。IBMは、コンサルティング、セキュリティサービス、堅牢なAIセキュリティフレームワークを通じて、組織がAIアプリケーションを大規模に構築およびデプロイし、透明性、倫理、コンプライアンスを確保できるよう支援しています。IBMのAI Security Discoveryワークショップは、お客様がAI導入の取り組みの早い段階でセキュリティー・リスクを特定して軽減できるよう支援する重要な最初のステップです。

詳細については、以下の参考情報をご覧ください。