ChatGPT 对 MCP 工具的新支持让攻击者能够从电子邮件中窃取所有私人详细信息

ChatGPT 对 MCP 工具的新支持让攻击者能够从电子邮件中窃取所有私人详细信息

ChatGPT 中新引入的一项功能允许其与个人数据应用程序连接,攻击者可以利用该功能从用户的电子邮件帐户中窃取私人信息。

该攻击只需要受害者的电子邮件地址,并利用恶意日历邀请来劫持人工智能代理。

周三,OpenAI 宣布 ChatGPT 将开始支持模型上下文协议 (MCP) 工具,这是 AnthropicAI 的一项创新,旨在让 AI 代理连接用户的个人应用程序并从中读取数据。

这包括广泛使用的服务,例如 Gmail、Google 日历、SharePoint 和 Notion。虽然这种集成旨在提高生产力,但它引入了植根于人工智能代理基本性质的重大安全漏洞。

这些模型旨在精确遵循命令,但缺乏常识性判断来区分合法的用户请求和恶意的注入提示。

这使得它们容易受到攻击,这些攻击可能会让人工智能反对它应该帮助的用户。

武器化电子邮件邀请

Eito Miyamura 展示了一种简单而有效的方法来利用这种集成。当威胁行为者向受害者的电子邮件地址发送特制的日历邀请时,攻击就开始了。

ChatGPT 对 MCP 工具的新支持让攻击者能够从电子邮件中窃取所有私人详细信息

该邀请包含一个隐藏的“越狱”提示,旨在让攻击者控制受害者的 ChatGPT 会话。受害者甚至不需要查看或接受邀请即可继续攻击。

下一步依赖于一个常见的用户作:要求 ChatGPT 通过查看他们的日历来帮助为他们的一天做准备。当人工智能扫描日历时,它会从恶意邀请中读取数据。

然后执行越狱提示,有效地劫持了人工智能。现在在攻击者的控制下,ChatGPT 遵循嵌入的命令,这些命令可以指示它在受害者的私人电子邮件中搜索敏感信息,并将该数据泄露到攻击者指定的电子邮件地址。

目前,OpenAI 已将 MCP 功能限制为“开发人员模式”,并实施了一项保护措施,要求每个会话都需要用户手动批准。

然而,这依赖于用户的警惕性,而用户的警惕性往往会受到一种称为决策疲劳的心理现象的破坏。在实践中,用户很可能会习惯审批提示,并在不完全了解他们授予的权限的情况下反复点击“批准”。

将这些工具与敏感个人数据集成会带来严重的安全风险,需要比简单的用户批准更强大的保护措施。

版权声明·<<<---红客联盟--->>>·免责声明
1. 本版块文章内容及资料部分来源于网络,不代表本站观点,不对其真实性负责,也不构成任何建议。
2. 部分内容由网友自主投稿、编辑整理上传,本站仅提供交流平台,不为该类内容的版权负责。
3. 本版块提供的信息仅作参考,不保证信息的准确性、有效性、及时性和完整性。
4. 若您发现本版块有侵犯您知识产权的内容,请及时与我们联系,我们会尽快修改或删除。
5. 使用者违规、不可抗力(如黑客攻击)或第三方擅自转载引发的争议,联盟不承担责任。
6. 联盟可修订本声明,官网发布即生效,继续使用视为接受新条款。
联系我们:admin@chnhonker.com
安全事件

“零散 LAPSUS$ 猎人 4.0” 组织宣布永久停止公开活动

2025-9-15 6:53:44

安全事件

联邦调查局公布针对针对 Salesforce 实例进行数据泄露的网络攻击的 IOC

2025-9-15 7:47:59

搜索