近日,Cato Network 的安全研究人员在地下论坛上发现了两种新版本的 WormGPT,这一恶意工具曾在2023年被广泛关注并被认为已被关闭。这两个新版本分别名为 keanu-WormGPT 和 xzin0vich-WormGPT,分别使用了商业 AI 模型 xAI 的 Grok 和 Mistral 的 Mixtral,目的在于帮助网络犯罪分子制作网络钓鱼邮件、编写恶意代码以及规避合法 AI 平台的安全措施。

黑客

图源备注:图片由AI生成,图片授权服务商Midjourney

最初的 WormGPT 是由一位名为 “Last” 的葡萄牙黑客创建的,他利用开源模型 GPT-J 来绕过主流 AI 工具的伦理限制。尽管这一工具在2023年被关闭,但这并没有结束其影响力,反而引发了一种新的趋势。Cato Networks 的威胁情报研究员 Vitaly Simonovich 指出,“WormGPT” 现在已成为一个可识别的品牌,代表着新一类不受限制的语言模型(LLMs)。

其中,keanu-WormGPT 是在2025年2月25日由一名用户发布的,该版本通过 Telegram 聊天机器人运行,基于 Grok 模型。研究人员利用越狱技术分析了 keanu-WormGPT 的操作方式,发现其系统提示被操控,以指示 Grok 忽略其伦理防护,从而生成网络钓鱼邮件和窃取凭证的脚本。

另一版本 xzin0vich-WormGPT 则是在2024年10月26日由用户 “xzin0vich” 发布,使用 Mistral AI 的 Mixtral 模型。与其 Grok 版本类似,该版本同样通过 Telegram 操作,并对不道德或非法的请求作出反应。Cato 团队使用相似的越狱方法获取了系统提示,确认该版本基于 Mixtral 架构运行。

WormGPT 的重现突显了恶意行为者如何适应不断发展的 AI 技术。尽管合法平台在强化伦理边界,但网络犯罪分子却在利用相同的工具进行恶意利用。自从原版 WormGPT 关闭以来,其他模型如 FraudGPT、DarkGPT 和 EvilGPT 相继出现。Simonovich 表示,“这些新版本的 WormGPT 并非定制模型,而是威胁行为者巧妙地改造现有语言模型的结果。”

鉴于这些新发展,网络安全专家强调了加强防御策略的必要性。Cato Networks 建议采取多项最佳实践,包括强化威胁检测与响应、实施更严格的访问控制以及增强安全意识和培训。

划重点:  

🌐 ** 新发现 **:Cato Network 发现两种新版本的 WormGPT,助力网络犯罪。  

🔒 ** 工具升级 **:新版本分别基于 Grok 和 Mixtral,能够规避 AI 安全防护。  

🛡️ ** 安全建议 **:专家呼吁加强网络安全防护措施,以应对不断演化的威胁。