昨年の夏、HYAS のサイバーセキュリティー研究者たちがEyeSpyの概念実証を公表しました。これは完全自律型のAI搭載マルウェアの一種で、サイバー攻撃をすべて独自に推論、戦略化し、実行できると言われています。1この実験を通じて、研究者たちは人工知能が間もなく解き放つことになる、壊滅的で検知不可能なサイバー脅威の新時代が垣間見られる、という警告を発しました。
実は、そうでもないかもしれません。
「AIについては、サイバーセキュリティーやその他の分野で非常に多くの誇大宣伝が行われています」と、IBM X-Force Adversary ServicesのCNE機能開発リード、Ruben Boonenは語っています。「ただ私が思うに、現時点でAI搭載マルウェアについては過度な心配は不要です。AIの利用によって、AIなしでは不可能だったことを可能にしているようなデモンストレーションは見たことがありません」
脅威のランドスケープは常に進化しており、AIベースのマルウェアが重大な危険をもたらす時代が到来する可能性はあります。しかし少なくとも今のところは、多くのセキュリティー専門家は、AIマルウェアに関する議論は、純粋な推測とやや過剰なマーケティングが混在しているものだと感じています。
現在AIを使用している脅威アクターは、主にサイバーセキュリティー担当チームがすでに熟知しているものと同じ、基本的なスクリプトやソーシャル・エンジニアリング攻撃の改良にAIを使用しています。つまり、組織は、デジタル資産へのパッチ適用、従業員のトレーニング、適切な脅威検知ソリューションへの投資といった基本的な対策に引き続き焦点を当てることで身を守ることができます。
MetaのLlamaなどの汎用大規模言語モデル(LLM)や、IBMのwatsonx Code Assistant などの専門アプリケーションは、いずれもコードの作成、デバッグ、解釈によってプログラマーの開発の加速を支援します。
懸念されるのは、このメリットを生かせるのは善意のプログラマーだけではないという点です。正規のAIシステムのジェイルブレイクや独自に作成したシステムによって、理論的には、脅威アクターがこれらのAIツールを使用してマルウェア開発プロセスを効率化することもできます。
AIがマルウェア市場への参入障壁を下げ、より多くのサイバー犯罪者がスキルレベルに関係なく悪意のあるプログラムを作成できるようになるのではないかと懸念する人もいます。さらに悪いことに、AIテクノロジーの助けがあれば、脅威アクターは一般的な防御を回避して、計り知れない大混乱を引き起こすことができるまったく新しいマルウェアを開発できるかもしれません。
一部の研究者は、マルウェアにAIを組み込むさまざまな方法を実験することで、AIによって生成されたサイバー脅威がもたらす可能性のある危険を説明しようとしています。
こうした実験は一見すると警戒すべきものに見えますが、多くのセキュリティー専門家はこうした実験を単に物珍しいものとしか考えていません。
組織が実際のサイバー攻撃に対する防御を強化できるよう支援するレッドチーム演習を取り仕切っているBoonenは、「[BlackMambaやEyeSpy]などは、私にとってはまったく恐ろしい物ではありません」と言います。
「こうしたプログラムがどのように導入されるかという仕組みについて、技術的な詳細情報を確認してみると、私たちがお客様とのやりとりで使用してもとても成功するとは思えません」と彼は説明する。
Boonenや他の専門家が、AI生成マルウェアに関する現在の議論に懐疑的である理由は2つあります。
まず、これらの「新しい脅威」は、セキュリティー・チームがこれまで見たことのない行為をしているわけではありません。つまり、既存の防御戦略は依然として有効です。
「BlackMambaとEyeSpyで提示されたコンセプトは新しいものではありません」と、IBM X-Force Threat Intelligenceのリード・マルウェア・リバース・エンジニア、Kevin Hensonは言います。「防御側は、メモリに隠れたポリモーフィックコードという形で、こうした機能を持つマルウェアにこれまで遭遇したことがあります」
Hensonは、メタプログラミングなどの技術を使って重要なデータを難読化し、毎回のコンパイルでコードパターンなど特定の要素を一意に生成するマルウェア作成機能を挙げています。
第二に、LLMには優れたコーディング・スキルがあるものの、前例のないマルウェアのバリアントをすぐに生成できるようになる可能性は低いのです。
「ChatGPT(およびその他のAIツール)を使用したマルウェア生成には限界があると思います。なぜなら、コードは一連のデータでトレーニングされたモデルで生成されるからです」とHensonは言います。「結果として、生成されるコードは人間が開発したコードほど複雑なものではなくなります」
AIと機械学習アルゴリズムによって、スキルがなくともマルウェアを作成できるようになり、サイバー犯罪が隆盛する可能性については多くの人が語っていますが、現在のモデルはまだその段階にはありません。LLMが生成するコードをすべて自分の意図したとおりに動作させるには、ユーザーはコードについてある程度知っていなければなりません。
「AIは生産性を向上させるツールです。コードの作成に必要な知識のレベルは、AIを使うことである程度低下します。とはいえ、大幅に低下するわけではありません」とBoonenは述べています。
実際、脅威アクターが今日、AIベースのマルウェアを広範に実装し始めた場合、防御側は簡単に検知して阻止できる低品質のコードを大量に生成する可能性があります。
「将来、AIを利用して本当に優れたマルウェアが作られる可能性が技術的にないとは言えません」とBoonen氏は言います。「モデルがこれまでのペースで改善され続ければ、かなりのことができるようになるポイントが来ると思います。そうなれば、真剣に対応する必要があるでしょう。しかしそういった段階に達しているとは思いません。」
「マルウェアは単に悪意のあるソフトウェアということなので、マルウェアの問題はソフトウェア開発で起きている事柄を忠実に反映します」と、IBM X-Force Threat Intelligenceのマルウェア・リバース・エンジニア、Golo Mührは述べます。
「今のところ、AI がコードにシームレスに統合されているアプリはあまりありません」と Mühr 氏は説明します。「AIがソフトウェア全般で主流になれば、マルウェアでも一般的になることが予想されます」
X-Force Threat Intelligence Indexのレポートによると、このパターンは過去にも発生しています。ランサムウェアとクリプトジャッキングは、これらの攻撃を可能にする正当なテクノロジー(ランサムウェア用のMicrosoft Active Directory、暗号通貨、クリプトジャッキングのためのサービスとしてのインフラストラクチャー)が完全に普及するまでは、脅威として蔓延したわけではありませんでした。
新しいテクノロジーはどんなものであれ、開発者が採用するにはある程度の投資対効果が得られなければなりません。Mührは、それはマルウェア開発者にとっても同じことだと指摘しています。
IBM の X-Force を含むサイバーセキュリティの研究者は、脅威アクターが人工知能を使用して新しいマルウェアを生成しているという証拠をまだ発見していません。しかしサイバー犯罪者は、単純なスクリプトの作成やフィッシングEメールの作成など、より日常的な悪意のある活動にAIツールを使用しています。
「正規のソフトウェア開発でも、開発プロセスの補助のために生成AIが使用され、ガイダンスを提供したり、基本的なコード・スニペットを作成しています。この種のAIテクノロジーは現在、脅威アクターによって悪意のある目的ですでに使用されていますが、それは非常に洗練された脅威として目を引くものではありません」とMührは述べています。
たとえば、MicrosoftとOpenAIは、LLMをコーディング・アシスタントとして使用しようとするいくつかの国家関係者を捕捉し、その活動を阻止してきました。ロシアとつながりのある「Forest Blizzard」グループは、標的システムの脆弱性を調査するためにLLMを使用していました。また、イランの「Crimson Sandstorm」グループは、Webスクレイピングのスクリプト作成にLLMを使用していました。3
しかし多くのセキュリティ専門家にとって、AIの悪意ある使用法として最も懸念されているのはLLMを利用したフィッシング攻撃です。
「現時点で最大の脅威は、なりすましやフィッシングに生成AIを利用することだと思います」とMührは述べています。「このユースケースでは、AIが人間のようなテキスト、ビデオ、音声を作成することで、それだけでも大きな影響を与えうるものです。これがフィッシングの武器として利用される兆候もすでに見られています」。
例えばハッカーはLLMを使用し、信頼できるブランドの文体を忠実に模倣したフィッシング Eメールを作成できます。LLMで生成されたEメールには、文法の誤りやぎこちない言い回しなど、標的になった人が詐欺を見抜くためによく使用する一般的な危険信号が見られません。
悪意のある攻撃者は、AIを活用して詐欺の説得力を高めるディープフェイクを生成することもあります。例えば香港の詐欺師は、AI生成によるビデオ会議を使って被害者を騙し、2,500万米ドルを不正な銀行口座に送金させていました。4
これらのAI搭載型詐欺は、人間の標的とエンタープライズ・セキュリティーの両方を出し抜くことができます。例えば X-Force が「Hive0137」と呼ぶサイバー犯罪者グループは、既知の悪意のあるメッセージを探知するフィルターをすり抜けられるように、AIを使用してフィッシングEメールのバリエーションを生成している可能性が高いと見られています。
AIはサイバーセキュリティの戦場を根本的に変えているわけではありません。むしろ攻撃者の既存の手口の効率化に役立っています。つまり、AI搭載型サイバー攻撃に対する最善の防御は、組織が引き続き基本を守ることです。
IBM X-Force Threat Intelligenceの戦略的脅威アナリスト、Ben Shipleyは次のように述べています。「攻撃にAIが使われていると言っても、防御側のリスクと対応は変わりません。AIや人間が作成したマルウェアは、依然としてマルウェアとして動作します。AIによって作成されたランサムウェアは、人間が記述したランサムウェアよりも大きな被害をもたらすわけではありません」。
標準的なセキュリティ対策は、AIによる支援の有無にかかわらず、マルウェアがシステムに侵入するために利用しなければならない脆弱性を解消するのに役立ちます。例えば正式なパッチ管理プログラムがあれば、悪意のある攻撃者に見つかる前にソフトウェアのバグを修正できます。多要素認証などの強力なID・アクセス管理 により 今日のサイバー攻撃の最も一般的なベクトルの1つであるアカウントの乗っ取りに対抗できます。
AI攻撃に対抗するのに役立つ対策は他にもあります。
悪意のある攻撃者はAIツールを利用してプロセスを合理化できますが、防御側でも同じことが可能であり、またそれが必要です。
IBM データ侵害のコストに関する調査によると、サイバーセキュリティにAIとオートメーションを活用する組織は、侵害コストを大幅に削減できます。
AIによって予防対策の効果を高めることができ、脅威の検知と修復までの時間を短縮して、平均的なデータ侵害のコストと比較して188万米ドルを削減できます。(セキュリティー向けのAIとオートメーションに広範に投資している組織の場合、データ侵害の平均コストは384万米ドルで、組織にセキュリティー向けのAIとオートメーションが導入されていない場合、データ侵害の平均コストは572万米ドルです)。
従来のルールベースの AI は、EDR(エンドポイントの検知と対応)ツールやUEBA(ユーザーおよびエンティティの行動分析)ツールなど、多くの一般的なサイバーセキュリティー・ツールにすでに導入されています。しかし新しい生成AIモデルも防御側に役立つものです。
「生成AIモデルはインシデント対応などに大きな影響を与えると思います」とBoonenは述べています。「たとえば、モデルは人間よりも短時間でより多くのデータを調べることができるため、インシデントをより迅速に把握・要約できる可能性があります」
その結果、アナリストの対応プロセスが迅速になり、その洞察を使用して脅威をより迅速かつ効果的に阻止できるようになるでしょう。
AIは、悪意のある攻撃者が人々を騙すためのディープフェイクを作成できる一方、まさにこれらのスキームに対抗する上で重要な役割を果たすこともできます。
「すでに本物の画像とほとんど区別できないようなディープフェイク画像もあります。今後、ほとんどの人が区別できなくなるのではないかと考えています」とBoonenは述べています。「ですから人間に判断できない場合に『この動画は偽物』または『この画像は偽物』と伝えられるように、AIモデルをトレーニングする必要があると思います」
AI搭載型サイバー脅威の将来と同様、AIがサイバーセキュリティ従事者に与える影響は、爆発的な激変というよりは徐々に変化していくものと思われます。セキュリティチームは、誇大広告に巻き込まれたり、終末論者に心を奪われるよりも、これまで常に行ってきたこと、つまり現在にしっかりと腰を据え、未来を見通することに努めたほうがよいのです。
すべてのリンク先は、ibm.comの外部です。
1. EyeSpy poof-of-concept, HYAS, 01 August 2023.
2. BlackMamba: using AI to generate polymorphic malware, HYAS, 31 July 2023.
3. Staying ahead of threat actors in the age of AI, Microsoft, 14 February 2024.
4. Finance worker pays out USD 25 million after video call with deepfake 'chief financial officer,' CNN, 4 February 2024.