あなたのチームは時間内に次のゼロデイを受け入れますか?
AI、サイバーセキュリティ、データ、自動化に関する厳選されたニュースをThinkニュースレターで購読しているセキュリティリーダーに加わりましょう。専門家によるチュートリアルと解説をメールで直接配信することで、手軽に学ぶことができます。IBMプライバシー・ステートメントをご覧ください。
組織は、さまざまな方法でAIをサイバーセキュリティーの実践に取り入れることができます。最も一般的なAIセキュリティー・ツールは、機械学習(ML)とディープラーニングを使用して、トラフィックの傾向、アプリの使用状況、閲覧の習慣、その他のネットワーク・アクティビティー・データなど、膨大な量のデータを分析します。
この分析により、AIはパターンを発見し、セキュリティーのベースラインを確立できます。ベースラインから外れたアクティビティーは、異常および潜在的なサイバー脅威として即座にフラグが立てられ、迅速な修復が可能になります。
また、AIセキュリティー・ツールは、大規模言語モデル(LLM) によって普及した生成AI(gen AI)も頻繁に使用し、セキュリティー・データをプレーン・テキストの推奨事項に変換して、セキュリティー・チームの意思決定を合理化します。
調査によると、AIセキュリティー・ツールにより脅威の検知とインシデント対応が大幅に改善されます。IBMデータ侵害のコスト・レポートによると、広範なセキュリティーAIと自動化を導入している組織は、AIツールを導入していない組織よりも平均108日早くデータ侵害を特定し、封じ込めました。
また、同レポートによると、AIセキュリティーを広範囲に使用している組織は、データ侵害の対応コストを平均176万米ドル節約していることも明らかになりました。これは、AIを使用していない企業の侵害の平均コストと比較すると、ほぼ40%の差があります。
これらの理由から、AIセキュリティーへの投資は増加しています。最近の調査によると、AIセキュリティー市場は、2023年に201億9,000万米ドルと評価され、2032年には1,416億4,000万米ドルに達し、年率24.2%で成長すると予測されています。1
AI、サイバーセキュリティ、データ、自動化に関する厳選されたニュースをThinkニュースレターで購読しているセキュリティリーダーに加わりましょう。専門家によるチュートリアルと解説をメールで直接配信することで、手軽に学ぶことができます。IBMプライバシー・ステートメントをご覧ください。
AI セキュリティーは、状況によって意味が異なります。このページで重視しているのは、サイバーセキュリティーを向上させるためのAIの使用ですが、他の2つの一般的な定義は、AIモデルとプログラムを悪意のある使用や不正アクセスから保護することに重点を置いています。
ある定義では、サイバーセキュリティー専門家は、脅威アクターがAIを使用してサイバー攻撃を改善したり、新しい攻撃対象領域をエクスプロイトしたりする方法に焦点を当てています。
例えば、LLMは、攻撃者がよりパーソナライズされた高度なフィッシング攻撃を作成するのに利用される可能性があります。比較的新しいテクノロジーであるAIモデルは、サプライチェーン攻撃や敵対的攻撃など、脅威アクターにサイバー攻撃の新たな機会を提供するものとなります(「AIの潜在的な脆弱性とセキュリティー・リスク」を参照)。
AIセキュリティーのもう一方の定義は、AIデプロイメントの保護です。IBM Institute for Business Valueによる最近の調査に基づくと、生成AIプロジェクトのうち、セキュリティーが確保されているプロジェクトの割合はわずか24%に留まっています。AIプロジェクトのセキュリティーを確保するには、AIデータ、モデル、使用法を保護するための対策が必要です。
たとえば、レッド・チームの演習では、倫理的ハッカーが現実世界の敵対者のように行動し、一般的にターゲットとなるのはAIシステム、機械学習モデル、AIおよびMLアプリケーションをサポートするデータセットです。
AIのデプロイメントを安全に行うには、AIモデルやツールの不正使用であるシャドーAIを根絶するための監視も必要になる場合があります。これらすべてのプラクティスは、企業がAIリスクを管理し、コンプライアンスの問題に対処するのにも役立ちます。
今日のサイバー脅威を取り巻く状況は複雑です。クラウドおよびハイブリッドクラウド環境への移行は、データの拡散と攻撃対象領域の拡大をもたらし、脅威アクターは脆弱性を悪用する方法を新たに見つけ続けています。同時に、サイバーセキュリティーの専門家は依然として不足しており、米国だけでも70万人以上の求人があります。2
その結果、サイバー攻撃の頻度は増し、コストも増大しています。データ侵害のコストに関する調査によると、2023年のデータ侵害を修復するための世界平均コストは445万米ドルで、3年間で15%増加しました。
AIを活用したセキュリティーは解決策を提供できます。脅威の検知と対応を自動化することで、AIは攻撃を防ぎ、脅威アクターをリアルタイムで捕捉するのを容易にします。AIツールは、悪意のあるソフトウェアを識別して隔離することでマルウェア攻撃を防ぐことから、繰り返しのログイン試行を認識してブロックすることでブルート・フォース攻撃を検出することまで、あらゆることに役立ちます。
AIセキュリティーにより、組織はセキュリティー運用を継続的に監視し、機械学習アルゴリズムを使用して進化するサイバー脅威に適応できます。
AIセキュリティーに投資しないと、大きな犠牲を払うことになります。AIセキュリティーを導入していない組織は、データ侵害の平均コストが536万米ドルとなり、これはすべての組織の平均コストよりも18.6%高くなっています。
セキュリティーが限られている場合でも、大幅なコスト削減が実現する可能性があります。AIセキュリティーが限られている企業では、データ侵害の平均コストが404万ドルと報告されています。これは、全体の平均よりも40万ドル少なく、AIセキュリティーがまったくない企業よりも28.1%少ない金額です。
AIはその利点にもかかわらず、セキュリティー上の課題、特にデータ・セキュリティーに関する課題をもたらします。AIモデルの信頼性は、そのトレーニング・データと同じでしかありません。改ざんされたデータや偏ったデータは、誤検知や不正確な回答につながる可能性があります。例えば、採用決定に使用されるトレーニング・データにバイアスがある場合、AIモデルが特定の人口統計グループを支持し、他の人口統計グループを差別することで、性別や人種のバイアスを強める可能性があります。3
また、AIツールは、脅威アクターがセキュリティーの脆弱性をよりうまく悪用するのを助けることもあります。例えば、攻撃者はAIを使用してシステムの脆弱性の発見を自動化したり、巧妙なフィッシング攻撃を生成したりする可能性があります。
ロイター通信社によると、米連邦捜査局(FBI)はAIによるサイバー侵入の増加を目の当たりにしています。4最近のレポートでは、上級サイバーセキュリティー専門家の75%がサイバー攻撃が増えていると見ており、85%が生成AIを利用した悪意のある攻撃者の増加に起因するとしています。5
今後、多くの組織は、AI倫理やセキュリティーを犠牲にすることなく人工知能のメリットを享受するために、安全なAIに時間とリソースを投資する方法を模索するでしょう(「AIセキュリティーのベスト・プラクティス」を参照)。
AIの機能は、サイバーセキュリティーの防御を強化する上で大きなメリットをもたらします。AIセキュリティーの最も重要なメリットには、次のようなものがあります。
多くの利点がある反面、新しいAIツールの採用は、組織の攻撃対象領域を拡大し、いくつかのセキュリティー脅威をもたらす可能性があります。
AIによってもたらされる最も一般的なセキュリティー・リスクには、次のようなものがあります。
脅威アクターは、AIモデルを標的にして、盗難、リバース・エンジニアリング、または不正操作を行う可能性があります。攻撃者は、AIモデルの動作や性能を決定するコア・コンポーネントである、アーキテクチャー、重み、パラメーターを改ざんすることで、モデルの完全性を損なう可能性があります。
敵対的攻撃とは、AIシステムを欺くために入力データを操作し、誤った予測や分類を行わせることです。例えば、攻撃者はAIアルゴリズムの脆弱性を突いて敵対的な例を生成し、AIモデルの意思決定を妨害したり、バイアスを生じさせたりすることがあります。
同様に、プロンプト・インジェクションは、悪意のあるプロンプトを使用してAIツールを騙し、データの漏洩や重要な文書の削除などの有害なアクションを実行させます。
法的および規制要件を遵守することは、合法的かつ倫理的なAIシステムの使用を保証するために不可欠です。組織は、一般データ保護規則(GDPR)、California Consumer Privacy Act(CCPA)、欧州AI規制法などの規制を遵守する必要があります。そうしないと、機密データが漏洩し、重い法的罰則を受ける危険性があります。
入力操作攻撃とは、入力データを改ざんして、AIシステムの動作や結果に影響を与えることです。攻撃者は、検知を回避したり、セキュリティー対策を迂回したり、意思決定プロセスに影響を与えたりするために、入力データを操作することがあります。それは、偏った結果や不正確な結果につながる可能性があります。
例えば、脅威アクターは、データ・ポイズニング攻撃で汚染したトレーニング・データを意図的に注入することで、AIシステムの出力を危険にさらす可能性があります。
サプライチェーン攻撃は、脅威アクターが、開発、展開、保守の段階を含むサプライチェーン・レベルでAIシステムを標的にすることによって発生します。例えば、攻撃者はAI開発で使用されるサードパーティーのコンポーネント、ソフトウェア・ライブラリー、モジュールの脆弱性を悪用し、データ侵害や不正アクセスを引き起こす可能性があります。
AIモデルは、時間の経過とともにドリフトや衰退を起こし、パフォーマンスや有効性が低下する可能性があります。敵は、衰退したりドリフトしたりするAIモデルの弱点を悪用して、出力を操作することができます。組織は、AIモデルの信頼性と関連性を維持するために、パフォーマンス、動作、精度の変化を監視できます。
サイバーセキュリティーにおけるAIの用途は多様であり、AIツールがより高度で利用しやすくなるにつれて絶えず進化しています。
今日のAIセキュリティーの最も一般的なユースケースには、次のようなものがあります。
エンドポイント・セキュリティーは、コンピューター、サーバー、モバイル・デバイスなどのエンドポイントをサイバーセキュリティーの脅威から保護することです。
AIは、エンドポイントの不審な動作や異常を継続的に監視し、セキュリティーの脅威をリアルタイムで検知することで、既存のエンドポイントの検知と対応(EDR)ソリューションを改善できます。
また、機械学習アルゴリズムは、ファイルレス・マルウェアやゼロデイ攻撃などの高度なエンドポイントの脅威を、被害をもたらす前に特定して軽減するのにも役立ちます。
AIは、シャドー・データを自動的に特定し、データ・アクセスの異常を監視し、脅威が発生したときにサイバーセキュリティーの専門家にアラートを発することで、ハイブリッドクラウド環境全体の機密データを保護するのに役立ちます。
脅威ハンティング・プラットフォームは、組織のネットワーク内で悪意のある活動の兆候を事前対応的に検索します。
AIの統合により、これらのツールは、大規模なデータ・セットを分析し、侵入の兆候を特定し、高度な脅威に対する迅速な検知と対応を可能にすることで、さらに高度で効率的なものになります。
サイバー攻撃や個人情報の盗難が一般的になるにつれて、金融機関は顧客や資産を保護する方法を必要としています。
AIは、トランザクション・データを自動的に分析して不正行為を示しているパターンを見つけることで支援します。さらに、機械学習アルゴリズムは、新しい脅威や進化する脅威にリアルタイムで適応できるため、銀行は不正アクセス検知機能を継続的に改善し、脅威アクターに先手を打つことができます。
AIセキュリティー・ツールは多くの場合、組織の既存のセキュリティー・インフラストラクチャーと統合することで最も効果を発揮します。
例えば、セキュリティー・オーケストレーション、自動化、レスポンス(SOAR)は、多くの組織がセキュリティー運用を合理化するために使用しているソフトウェア・ソリューションです。AIはSOARプラットフォームと統合して、日常的なタスクやワークフローを自動化できます。この統合により、より迅速なインシデント対応が可能になり、セキュリティー・アナリストはより複雑な問題に集中できるようになります。
IDおよびアクセス管理(IAM)ツールは、ユーザーがデジタル・リソースにアクセスする方法と、そのリソースを使用して何ができるかを管理します。その目的は、ハッカーを排除する一方で、各ユーザーが必要な権限のみを持ち、それ以上は持たないようにすることです。
AIを活用したIAMソリューションは、役割、責任、行動に基づくきめ細かなアクセス制御を提供し、許可されたユーザーのみが機密データにアクセスできるようにして、このプロセスを改善できます。
また、AIは機械学習を使用してユーザー行動のパターンを分析し、個々のユーザーのリスク・レベルに基づいて変化する適応型認証対策を可能にすることで、認証プロセスを強化することもできます。
ChatGPTのようなLLMにより、フィッシング攻撃はより容易に実行されるようになり、それを認識するのはより困難になりました。しかし、AIはフィッシング対策のための重要なツールとしても注目されています。
機械学習モデルは、Eメールやその他のコミュニケーションにフィッシングの兆候がないかどうかを分析するのに役立っており、検知の精度を向上させ、フィッシングの成功率を低下させています。また、AI搭載のEメール・セキュリティー・ソリューションは、リアルタイムの脅威インテリジェンスと自動対応を提供し、フィッシング攻撃を発生時に阻止できます。
AIのセキュリティーのリスクとメリットのバランスを取るため、多くの組織では、利害関係者がAIシステムをどのように開発、実装、管理すべきかをまとめた明確なAIセキュリティー戦略を策定しています。
これらの戦略は必然的に企業によって異なりますが、一般的に使用されるベスト・プラクティスには次のものがあります。
AIツールを脅威インテリジェンス・フィードやSIEMシステムなどの既存のサイバーセキュリティー・インフラストラクチャーと統合することで、新しいセキュリティー対策の導入に伴う中断やダウンタイムを最小限に抑えながら、効果を最大限に高めることができます。
アルゴリズムとデータ・ソースを文書化し、AIの使用について利害関係者とオープンにコミュニケーションをとることで、AIプロセスの透明性を維持し、潜在的な偏見や不公平を特定して軽減することができます。
AIツールはセキュリティー体制を向上させますが、AIツール独自のセキュリティー対策も有効です。
暗号化、アクセス制御、脅威監視ツールは、AIシステムと使用する機密データを保護するのに役立ちます。
AIシステムのパフォーマンス、コンプライアンス、精度を継続的に監視することで、組織は規制要件を満たし、AIモデルを長期的に改良できます。