“如果说有一项工作是生成式 AI 无法取代的,那就是行骗。”
这就是 IBM 全球网络靶场负责人兼首席社会工程黑客专家 Stephanie Carruthers 在 2022 年所感受到的。当时 ChatGPT 刚将生成式人工智能带入公众视野。其令人不安的人类语言能力与庞大知识库的结合,让许多人开始思考它将如何改变世界。
以及 AI 可能如何改变他们的工作。
“当它 (AI) 最初出现时,人们不断问我:‘你害怕 AI 会取代你的工作吗?’”Carruthers 说道。“我当时认为不可能。除非 AI 发展到能真正理解一个人,并为其量身定制攻击活动的程度,否则这种情况不会发生。”
作为 IBM X-Force 的一员,Carruthers 负责设计模拟的社会工程学骗局和网络攻击,以帮助企业增强抵御真实威胁的能力。早期的生成式 AI 模型能炮制出相当通用的钓鱼诈骗,但无法实施造成严重损害的复杂攻击。那些高级骗局需要深入调研、周密规划和高度定制化的骗术。
然而在两年半间,情况已大不相同。如今,许多大型语言模型 (LLM) 能够实时搜索网络。能够自主设计工作流并执行任务的 AI 智能体则更进一步,它们可以利用发现的信息来指导行动。
想象一个能针对特定个人完美定制社会工程学攻击的 AI 机器人,这似乎不再是夸张之辞。它只需要一个威胁行为者来启动它。
“我们现在已经到了让我担忧的阶段,”Carruthers 表示。“只需极少的提示,一个 AI 模型就能写出一条专门针对我的钓鱼信息。这太可怕了。”
根据 2025 年 IBM® X-Force Threat Intelligence Index,如今的威胁参与者普遍在开展比过去更大、更广泛的活动。这种发展在一定程度上是改变计策的问题,因为许多攻击者已将重点转移到同时影响许多受害者的供应链攻击上。
但这也是改变工具的问题。许多攻击者像实习生或助理一样采用生成式 AI,用它来构建网站、生成恶意代码甚至编写网络钓鱼电子邮件。通过这种方式,AI 帮助威胁参与者在更短的时间内发动更多攻击。
“AI 模型确实在帮助攻击者整理他们发布的消息,”Carruthers 说。“让它们更简洁,让它们更紧迫,让它们成为更多人喜欢的东西”。
Carruthers 指出,糟糕的语法和尴尬的措辞转变长期以来一直是网络钓鱼尝试中最常见的危险信号之一。网络罪犯往往不会认真进行拼写检查,而且他们经常使用第二语言和第三语言写作,导致总体错误率较高。
然而,生成式 AI 工具能以技术完美的文笔生成几乎所有主要世界语言的文本,掩盖最明显的社会工程学破绽,欺骗更多受害者。
AI 还能比人类更快地编写这些信息。Carruthers 和 X-Force 团队进行了一些实验,发现生成式 AI 能在五分钟内写出一封有效的钓鱼电子邮件。而一个人类团队要撰写一封质量相当的信息,大约需要 16 个小时,其中大部分时间花在对目标的深入调研上。
还需考虑到,深度伪造技术使 AI 模型能创建虚假图像、音频甚至视频通话,这进一步增强了其骗局的可信度。
仅在 2024 年,美国人在钓鱼攻击等欺诈行为中就损失了 125 亿美元。随着更多诈骗者利用生成式 AI 在更短时间内、用更多语言创建更具说服力的钓鱼信息,这个数字可能还会上升。
而随着 AI 智能体的出现,欺诈者还能将其攻击规模进一步扩大。
调研往往是网络攻击成败的关键。通过对目标(企业或个人)进行研究,威胁行为者能制定完美定制的计划、精心编写精准触动心弦的故事,并开发能精准利用特定漏洞的恶意软件。
攻击者能在网上找到他们所需的大部分信息。
“通过查看社交媒体、公司网站,或者开放网络上的任何地方,你真的可以了解到关于一个人的大量信息,”Carruthers 说。“人们在博客文章、新闻稿、媒体甚至招聘信息中透露的信息实在太多了。”
招聘广告是一个很好的例子,可以说明攻击者如何利用看似无害的信息来对付受害者。
Carruthers 解释道:“通过阅读你的招聘广告,我可能会了解你的技术栈是怎样的以及你的供应商是谁,现在,我可以根据你的环境定制恶意软件。我知道我可以假装来自哪些供应商。”
Carruthers 等专家担心,有了能够设计工作流程并使用工具实现复杂目标的 AI 智能体,攻击者可以自动制作的不仅仅是网络钓鱼电子邮件和虚假网站。
理论上,攻击者可以利用 AI 智能体收集信息、进行分析、制定攻击计划,并生成用于攻击的诈骗信息和深度伪造内容。
这一过程远比用不同文风为不同目标生成同一钓鱼信息的变体要复杂得多。这是一种升级版的超精准网络钓鱼,被广泛视为最有效的社会工程学形式。
网络安全专家尚未在现实中检测到数量可观的恶意 AI 智能体,但这可能只是时间问题。《麻省理工科技评论》最近一篇报道引用了 Malwarebytes 公司 Mark Stockley 的话:“我认为最终我们将生活在一个大多数网络攻击由智能体执行的世界。这真的只是我们多久会抵达那个阶段的问题。”
在生成式 AI 时代,许多传统上可靠的社会工程学攻击防御手段已失效。
“我们教导员工的首要事项就是留意糟糕的语法、错别字这类东西,”Carruthers 说。“但对于使用 AI 的复杂攻击者而言,这已不再是问题。”
如果这些风格上的危险信号不再有效,一种选择是将安全意识培训的重点转移到对社会工程计策的更实质性讨论上。
正如 Carruthers 之前所提到的,社会工程师非常依赖冒名顶替、错误信息和情感操纵。人工智能驱动诈骗可能会减少拼写错误,但它们仍然依赖于与传统社会工程攻击相同的桥段和模式。如果员工学会识别这些蛛丝马迹,他们就能挫败更多的网络犯罪。
社会工程学者利用人类心理,如好奇心、恐惧、助人欲望和归属感。诈骗者精心设计信息以点燃这些情绪:“我需要你立刻汇款,否则会有极端糟糕的事情发生。”
而大多数正当的工作场所互动远没有如此强烈的情感冲击。工作可能有压力,同事可能有消极对抗,上司可能要求苛刻。但大多数人至少会试图保持一定程度的礼貌。
(即使是紧急的)请求也往往采用更平和的语气:“嘿,能确保这张发票今天付掉吗?因为文员失误我们逾期了,我不想惹恼供应商。”
一个带着强烈情感提出的重要请求应该是一个停下来审视的信号。
社会工程师是讲故事的人,他们倾向于始终使用一些久经考验的情节钩子。一些最常见的包括:
我是你老板,我需要你的帮助。不要问我任何问题。
自称来自 IT/网络安全部门/技术供应商,声称您的系统已遭入侵。必须立即行动。
自称是供应商,威胁若不满足其要求就立即终止服务。
我是一名执法人员或政府官员,如果不付这笔罚款,你今天就要坐牢了。
自称是陌生人,却要提供绝佳投资机会。
自称来自邮政服务,声称包裹投递出问题。要求点击链接解决问题。
冒充您信任的服务或品牌,声称账户被黑。要求立即处理。
冒充您信任的服务或品牌,声称有超值优惠。要求立即领取。
尽管如此,最狡猾的攻击者还是会尽可能将自己的故事个人化。Carruthers 建议,组织不应停留在高层次的概述,而应调整其安全培训,专门讨论员工最可能面临的网络威胁。
“根据组织目前实际遇到的攻击情况,重新评估你的安全意识培训。”Carruthers 说。“你接到过特定类型的诈骗电话吗?将这些电话纳入你的训练中。”
Carruthers 建议在调整培训内容的同时,增加培训频率。这样做 有助于巩固学习效果,让宝贵的安全提示在员工脑中保持鲜活,从而提高他们实际运用所学安全措施的可能性。
“员工往往是攻击者入侵整个组织的首要目标,”Carruthers 说。“如果我们每年只给他们做一小时的培训,这真的够吗?”
人们可以通过寻找危险标志来捕捉更多正在进行的攻击。但是,他们可以通过限制发布的内容来完全阻止某些攻击的发生。
Carruthers 说:“对于个人和组织来说,了解自己在网上发布了什么内容非常重要。”
在社交工程学领域,AI 技术和 LLM 的强大之处源于其获取和分析目标对象大量信息的能力。如果找不到此类信息,AI 工具就无法策划有针对性的攻击,其措辞再流畅也难以欺骗受害者。
Carruthers 指出“避免过度共享”是常见建议,但这条提示通常被解读为“不要在网上发布机密信息”。然而,诈骗者甚至可以使用一些非敏感信息来使他们的攻击更具说服力。
“许多招聘启事都会透露部分组织架构信息,比如‘该职位向某某职位汇报,并管理某某职位’,”Carruthers 解释道。“这些信息很有价值。我能大致了解贵公司的结构,知道该使用什么头衔、该冒充什么角色。”
个人固然可以在社交媒体账户上设置严格的隐私权限,但这对企业而言不太可行。不过,企业在发布信息时可以更加谨慎,例如在图片中模糊处理员工的工牌。
“大多数人认为找到一张员工徽章的照片没什么大不了的,”Carruthers 说。“从社会工程的角度来看,我现在可以复制那个徽章的外观,这使得进入我不属于的建筑物变得更加容易。”