
一种名为“MalTerminal”的人工智能驱动型恶意软件利用OpenAI的GPT-4模型动态生成恶意代码,包括勒索软件和反向shell,这标志着威胁开发和部署方式发生了重大转变。
这一发现是在最近对另一种人工智能驱动的恶意软件PromptLock进行分析之后得出的,这表明攻击者将大型语言模型(LLMs)武器化已成为一种明显趋势。
这一发现是SentinelLABS在2025年LABScon安全会议上发表的“野外环境中由大语言模型驱动的恶意软件”研究的一部分。
研究结果凸显了攻击者如何开始将大型语言模型直接整合到其恶意载荷中,这给传统的安全检测方法带来了挑战。
PromptLock:一项学术概念验证
2025年8月,安全公司ESET发现了PromptLock,它最初被宣称是首个已知的人工智能驱动的勒索软件。后来证实,这是纽约大学研究人员为展示此类威胁的潜在危险而创建的概念验证。
与依赖云端API的MalTerminal不同,PromptLock采用Golang编写,并使用Ollama API在受害者的设备上本地运行大语言模型。
基于预定义的提示词,PromptLock会实时生成恶意的Lua脚本,使其能够在Windows、Linux和macOS系统上兼容运行。

这种恶意软件旨在识别受感染系统的类型,例如个人计算机、服务器或工业控制器,然后自主决定是窃取数据还是使用SPECK 128位加密算法对数据进行加密。
MalTerminal揭秘
虽然PromptLock是一个研究项目,但SentinelLABS的研究人员在实际环境中发现了支持大语言模型的恶意软件。他们没有去搜索已知的恶意代码,而是专注于大语言模型集成所特有的工件。
该团队编写了YARA规则,用于扫描二进制文件中嵌入的硬编码API密钥和常见提示结构。这种API密钥搜索方法成功识别出一组可疑的Python脚本和一个名为MalTerminal.exe的编译后的Windows可执行文件。
分析显示,该恶意软件使用了一个已弃用的OpenAI API端点,这表明它创建于2023年11月之前,使其成为已知同类样本中最早的一个。
恶意终端用作恶意软件生成器。执行后,该工具提示其操作员在创建“勒索软件”或“反向外壳”之间进行选择。然后它向GPT-4 API发送请求,以在运行时生成相应的恶意Python代码。
这种方法意味着恶意逻辑永远不会存储在初始二进制文件中,从而使其能够绕过静态分析和基于特征的检测工具。
这项研究还发现了相关的脚本,包括早期版本(TestMal2.py),甚至还有一个名为“FalconShield”的防御工具,它似乎是同一作者创建的一款实验性恶意软件扫描器。
像MalTerminal和PromptLock这类恶意软件的出现,对网络安全防御者构成了新的挑战。每次执行时生成独特恶意代码的能力,使得检测和分析工作变得异常困难。
然而,这类新型恶意软件也存在固有的弱点。它对外部API、本地模型和硬编码提示词的依赖,为防御者创造了新的攻击面。
如果API密钥被撤销或模型被封禁,恶意软件将无法运行。虽然支持大语言模型的恶意软件仍被视为处于实验阶段,但这些例子发出了一个重要警告:威胁行为者正在积极创新,这迫使防御者调整策略,重点关注检测恶意API使用和异常提示活动。
1. 本版块文章内容及资料部分来源于网络,不代表本站观点,不对其真实性负责,也不构成任何建议。
2. 部分内容由网友自主投稿、编辑整理上传,本站仅提供交流平台,不为该类内容的版权负责。
3. 本版块提供的信息仅作参考,不保证信息的准确性、有效性、及时性和完整性。
4. 若您发现本版块有侵犯您知识产权的内容,请及时与我们联系,我们会尽快修改或删除。
5. 使用者违规、不可抗力(如黑客攻击)或第三方擅自转载引发的争议,联盟不承担责任。
6. 联盟可修订本声明,官网发布即生效,继续使用视为接受新条款。
