新研究(含概念验证)揭示:使用大语言模型(LLM)编写代码面临的安全隐患

新研究(含概念验证)揭示:使用大语言模型(LLM)编写代码面临的安全隐患

安全研究人员发现,由大语言模型(LLM)生成的代码存在重大漏洞。研究表明,借助人工智能助手进行 “氛围式编码”(vibe coding,指依赖 AI 生成代码时侧重实现效果、忽视底层安全逻辑的编码方式),可能会给生产环境中的应用程序引入严重安全缺陷。
一项新研究指出,LLM 生成的代码往往优先考虑功能实现而非安全性,由此产生的攻击向量,只需通过简单的 curl 命令即可利用。

核心要点

  1. LLM 生成的代码会继承不安全的代码模式,为实现功能而牺牲安全性。
  2. 暴露的端点(endpoint)使得攻击者可通过简单的 curl 命令轻松发起攻击。
  3. 人为监督(包括威胁建模、代码审查和安全扫描)至关重要。

不安全的训练数据

希曼舒・阿南德(Himanshu Anand)指出,根本问题在于 LLM 的训练数据源自互联网爬取,而这些数据中的大多数代码示例仅以演示功能为目的,并未遵循安全最佳实践。
当开发人员过度依赖 AI 生成的代码,且未进行充分的安全审查时,这些不安全的代码模式会大规模渗透到生产系统中。


研究显示,LLM 无法理解业务风险,也缺乏进行合理威胁建模所需的上下文感知能力。


其训练数据中天然包含大量来自在线教程、Stack Overflow 问答和文档示例的易受攻击代码模式 —— 这些代码模式均以快速实现功能为首要目标,而非采用安全的设计思路。


一个尤为值得警惕的案例是:某款部署在 Railway [.] com 平台上的 JavaScript 应用,其整个邮件 API 架构均暴露在客户端。该易受攻击的代码包含以下问题(原文未列出具体代码,此处为案例背景说明):

新研究(含概念验证)揭示:使用大语言模型(LLM)编写代码面临的安全隐患

概念验证(PoC)攻击

该研究包含一项概念验证攻击,展示了暴露的客户端 API 如何被利用:

新研究(含概念验证)揭示:使用大语言模型(LLM)编写代码面临的安全隐患

这一简单命令(原文未列出具体命令,此处为攻击原理说明)揭示了三个关键攻击向量:
  • 针对任意邮箱地址的垃圾邮件攻击
  • 利用逼真的机构名义信息冒充客户
  • 通过伪造可信发件人地址滥用内部系统
该漏洞使攻击者能够完全绕过预期的 Web 界面,在无需身份验证、不受频率限制的情况下,直接向后端服务发送无限量请求。
研究强调,尽管 LLM 可作为强大的编码助手,但在安全层面仍需人工监督。
企业不应将 AI 生成的代码直接部署到生产环境,而必须实施规范的威胁建模、安全审查和纵深防御策略。
安全团队应重点制定安全编码指南,对 LLM 生成的代码实施自动化安全扫描,并在安全审查流程中保留人工专业判断环节 —— 以防止这类漏洞被系统性地引入系统。
红客联盟·免责声明
1. 本版块文章内容及资料部分来源于网络,不代表本站观点,不对其真实性负责,也不构成任何建议。
2. 部分内容由网友自主投稿、编辑整理上传,本站仅提供交流平台,不为该类内容的版权负责。
3. 本版块提供的信息仅作参考,不保证信息的准确性、有效性、及时性和完整性。
4. 若您发现本版块有侵犯您知识产权的内容,请及时与我们联系,我们会尽快修改或删除。
5. 使用者违规、不可抗力(如黑客攻击)或第三方擅自转载引发的争议,联盟不承担责任。
6. 联盟可修订本声明,官网发布即生效,继续使用视为接受新条款。
联系我们:admin@chnhonker.com

给TA打赏
共{{data.count}}人
人已打赏
安全威胁

中间人攻击(AiTM)如何绕过多因素认证(MFA)与终端检测响应(EDR)系统?

2025-8-30 1:25:15

安全威胁

攻击者将 Facebook 广告武器化:以免费 TradingView 高级应用为诱饵传播 Android 恶意软件

2025-8-30 1:39:46

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索