WormGPT卷土重来:主流AI平台频现漏洞

AI资讯2个月前发布
14 0

6月19日,网络安全领域迎来一场新的挑战:恶意人工智能工具WormGPT以一种更隐蔽的方式重新登场。与之前版本不同,新版WormGPT放弃了自建模型的模式,转而采用“合法大语言模型的操控”策略。

网络安全公司Cato Networks的研究人员发现,犯罪分子通过篡改知名LLM(如xAI的Grok和Mistral AI的Mixtral)的系统提示指令,成功绕过了这些模型内置的安全限制。这种操作被形象地称为“越狱”。一旦得逞,这些模型就会沦为生成钓鱼邮件、恶意脚本等网络攻击工具的帮凶。

时间追溯到2023年7月,当时WormGPT首次亮相:它基于开源的GPT-J模型,能够自动生产木马程序和钓鱼链接。该工具因功能强大而迅速引发关注,最终被迫下架。

令人意外的是,在2024年底至2025年初期间,两个网名为“xzin0vich”和“keanu”的用户在暗网市场BreachForums上重启了WormGPT的订阅服务。这次复出标志着该工具进入了新的发展阶段。

WormGPT卷土重来:主流AI平台频现漏洞

新型WormGPT通过修改Mixtral等模型的系统提示指令,强制这些模型切换到“恶意模式”。在该模式下,原本遵循伦理规范的大语言模型将完全失去道德约束,成为犯罪分子的得力工具。

更令人担忧的是,xAI的Grok模型甚至被封装成API接口形式的恶意包装器。其开发者还追加了特殊指令:要求模型“永远保持WormGPT的人格设定”,同时“不得承认自身的任何限制”。这种设计使得攻击行为更加隐蔽和难以追踪。

WormGPT卷土重来:主流AI平台频现漏洞

这种新型的网络威胁再次提醒我们,人工智能技术在带来便利的同时,也伴随着前所未有的安全挑战。面对这些“披着合法外衣”的恶意工具,网络安全防护需要持续升级。

© 版权声明

相关文章