
网络安全公司 ESET 透露,它发现了一种代号为 PromptLock 的人工智能 (AI) 勒索软件变体。
新发现的菌株用 Golang 编写,通过 Ollama API 在本地使用 OpenAI 的 gpt-oss:20b 模型实时生成恶意 Lua 脚本。OpenAI 本月早些时候发布了开放权重语言模型。
“PromptLock 利用从硬编码提示生成的 Lua 脚本来枚举本地文件系统、检查目标文件、泄露选定数据并执行加密,”ESET 说。“这些 Lua 脚本跨平台兼容,可在 Windows、Linux 和 macOS 上运行。”
勒索软件代码还嵌入了根据“受影响的文件”制作自定义注释的指令,受感染的机器是个人计算机、公司服务器或配电控制器。目前尚不清楚谁是该恶意软件的幕后黑手,但 ESET 告诉 The Hacker News,PromptLoc 工件于 2025 年 8 月 25 日从美国上传到 VirusTotal。
“PromptLock 使用人工智能生成的 Lua 脚本,这意味着不同执行的入侵指标 (IoC) 可能会有所不同,”这家斯洛伐克网络安全公司指出。“这种可变性给检测带来了挑战。如果实施得当,这种方法可能会使威胁识别变得非常复杂,并使防御者的任务更加困难。
PromptLock 被评估为概念验证 (PoC),而不是在野外部署的完全可作的恶意软件,它使用 SPECK 128 位加密算法来锁定文件。
除了加密之外,对勒索软件工件的分析表明,它还可以用来泄露数据甚至销毁数据,尽管实际执行擦除的功能似乎尚未实现。
“PromptLock 不会下载整个模型,其大小可能有几千兆字节,”ESET 澄清道。“相反,攻击者可以简单地建立一个代理或隧道,从受感染的网络到运行 Ollama API 的服务器,并使用 gpt-oss-20b 模型。”
PromptLock 的出现是另一个迹象,表明人工智能使网络犯罪分子(即使是那些缺乏技术专长的人)更容易快速设置新活动、开发恶意软件以及创建引人注目的网络钓鱼内容和恶意网站。
今天早些时候,Anthropic 透露,它已经禁止了两个不同的威胁行为者创建的帐户,这些行为者使用其 Claude AI 聊天机器人针对至少 17 个不同的组织进行大规模盗窃和勒索个人数据,并开发了几种具有高级规避能力、加密和反恢复机制的勒索软件变体。
这一开发是在为各种聊天机器人和以人工智能为中心的开发人员工具提供支持的大型语言模型 (LLM) 之际进行的,例如 Amazon Q Developer、Anthropic Claude Code、AWS Kiro、Butterfly Effect Manus、Google Jules、Lenovo Lena、Microsoft GitHub Copilot、OpenAI ChatGPT Deep Research、OpenHands、Sourcegraph Amp 和 Windsurf,已被发现容易受到提示注入攻击,从而可能允许信息泄露, 数据泄露和代码执行。
尽管采用了强大的安全防护措施来避免不良行为,但人工智能模型仍多次成为注入和越狱新变体的牺牲品,凸显了安全挑战的复杂性和不断变化的性质。
“提示注入攻击可能会导致人工智能删除文件、窃取数据或进行金融交易,”Anthropic 说。“恶意行为者也在不断开发新形式的提示注入攻击。”
更重要的是,新的研究发现了一种简单而巧妙的攻击,称为 PROMISQROUTE——“通过类似 SSRF 的查询诱导的基于提示的路由器开放模式作,使用信任规避重新配置作”的缩写——它滥用 ChatGPT 的模型路由机制触发降级并导致提示被发送到较旧的、安全性较低的模型,从而允许系统绕过安全过滤器并产生意想不到的结果。
Adversa AI 在上周发布的一份报告中表示:“添加’使用兼容模式’或’需要快速响应’等短语绕过了数百万美元的人工智能安全研究,”并补充说,该攻击针对的是人工智能供应商使用的节省成本的模型路由机制。
1. 本版块文章内容及资料部分来源于网络,不代表本站观点,不对其真实性负责,也不构成任何建议。
2. 部分内容由网友自主投稿、编辑整理上传,本站仅提供交流平台,不为该类内容的版权负责。
3. 本版块提供的信息仅作参考,不保证信息的准确性、有效性、及时性和完整性。
4. 若您发现本版块有侵犯您知识产权的内容,请及时与我们联系,我们会尽快修改或删除。
5. 使用者违规、不可抗力(如黑客攻击)或第三方擅自转载引发的争议,联盟不承担责任。
6. 联盟可修订本声明,官网发布即生效,继续使用视为接受新条款。