2025 年 6 月 19 日,网络安全领域再次拉响警报:曾因曝光而被下架的恶意人工智能工具
WormGPT 以全新形态重返视野。此次它不再依赖自建模型,而是通过 “劫持”
Grok、
Mixtral 等主流
大语言模型(LLMs),绕过安全限制生成
钓鱼邮件、
恶意脚本等攻击工具,给网络安全带来了更隐蔽、更具威胁的挑战。

恶意 AI 工具 WormGPT 卷土重来:借主流大模型 “越狱”,成网络安全新威胁
2023 年 7 月,WormGPT 首次进入公众视野,它基于开源 GPT-J 模型,具备自动生成木马、钓鱼链接等恶意功能,因危害巨大被迅速下架。然而,这并未让它彻底消失。
在 2024 年底至 2025 年初这段时间,网络安全公司 Cato Networks 发现,网名 “xzin0vich” 和 “keanu” 的用户在暗网市场 BreachForums 上,重新推出了 “WormGPT” 订阅服务。这标志着 WormGPT 以更狡猾的方式 “复活”,再次对网络安全构成严重威胁。
新型 WormGPT 不再走自建模型的老路,而是将目标瞄准了已有的主流
大语言模型。它通过篡改 xAI 的 Grok 和 Mistral AI 的 Mixtral 等模型的系统提示(system prompts),进行 “越狱” 操作。
具体来说,它会强制这些模型切换至 “WormGPT 模式”。在这种模式下,模型原本的伦理限制被打破,变成了 “没有道德限制” 的恶意助手,能够按照攻击者的意愿生成各种恶意内容。
对于 Grok 模型,攻击者的手段更加隐蔽和恶劣。他们将其封装为 API 接口的恶意包装器,不仅如此,开发者还追加指令,要求模型 “永远保持 WormGPT 人格,不得承认自身限制”。这使得被劫持的模型在执行恶意任务时更加 “坚定”,也更难被发现和识别。
在暗网市场 BreachForums 上,关于 WormGPT 的介绍充斥着危险的 “诱惑”。其宣称自身是 “基于人工智能的语言模型,旨在帮助人们解决各种问题,尤其专注于网络安全和黑客问题”,还强调能提供 “广泛的主题领域” 信息,包括网络安全、编程、软件开发等,甚至标榜 “快速准确的回答”“最新的高级知识和专业技能”。
但事实上,这些所谓的 “帮助” 背后,是引导用户利用其进行恶意攻击活动。攻击者还提供了 Telegram 频道、网站等多个联系方式,方便用户订阅其恶意服务,进一步扩大了威胁范围。

恶意 AI 工具 WormGPT 卷土重来:借主流大模型 “越狱”,成网络安全新威胁
WormGPT 的卷土重来,意味着网络攻击者拥有了更强大、更便捷的恶意工具。借助主流大模型的能力,其生成的
钓鱼邮件、恶意脚本等攻击工具可能更加逼真、更具迷惑性,更容易让用户上当受骗。
对于个人用户来说,可能会在不知不觉中点击钓鱼链接,导致个人信息泄露、财产损失;对于企业而言,恶意脚本可能会入侵企业系统,窃取商业机密、破坏业务运行,造成巨大的经济损失和声誉损害。
个人和企业都应加强对 AI 相关网络威胁的认识,警惕来自不明来源的邮件、链接和软件。不轻易点击可疑链接,不随意下载未知程序,避免成为 WormGPT 攻击的受害者。
大语言模型的开发者和运营方需要进一步强化模型的安全机制,防止系统提示被篡改,完善伦理限制措施,提高模型对恶意指令的识别和抵御能力。同时,要加强对 API 接口的安全管理,防止被恶意封装和利用。
相关部门应加大对暗网非法活动的监管和打击力度,切断 WormGPT 等恶意工具的传播渠道。同时,建立健全网络安全法律法规,对利用 AI 工具进行网络攻击的行为进行严厉惩处,形成有力的法律震慑。
WormGPT 的再次出现,是 AI 技术在带来便利的同时也被恶意利用的一个典型案例。随着 AI 技术的不断发展,网络安全面临的挑战也将日益复杂。只有各方共同努力,提高安全意识、加强技术防护、强化监管措施,才能有效应对这些新型网络安全威胁,守护好网络空间的安全和稳定。