网络安全研究人员披露了OpenAI ChatGPT深度研究Agent中存在的一个零点击漏洞攻击者可通过精心构造的单封邮件在无需用户任何操作的情况下泄露Gmail收件箱中的敏感数据。

Radware公司将这类新型攻击命名为ShadowLeak在2025年6月18日进行负责任的披露后,OpenAI于8月初修复了该问题。

"该攻击利用了可隐藏在电子邮件HTML中的间接提示注入技术(如微小字体、白底白字、布局技巧等)用户根本不会注意到这些指令但Agent仍会读取并执行它们"安全研究人员Zvika Babo、Gabi Nakibly和Maor Uziel表示。"与此前依赖客户端图像渲染触发泄露的研究不同,该攻击直接从OpenAI的云基础设施泄露数据,使本地或企业防御系统无法察觉。"

深度研究Agent的工作原理

OpenAI于2025年2月推出的深度研究功能是ChatGPT内置的一项Agent能力可在互联网上进行多步骤研究以生成详细报告过去一年中Google Gemini和Perplexity等其他流行人工智能(AI)聊天机器人也添加了类似的分析功能。

在Radware描述的攻击场景中威胁行为者向受害者发送一封看似无害的电子邮件,其中包含使用白底白字或CSS技巧隐藏的指令这些指令会指示Agent从收件箱中的其他邮件收集个人信息,并将其外泄到外部服务器。

image

攻击实施细节

当受害者要求ChatGPT深度研究功能分析其Gmail邮件时,Agent会解析恶意邮件中的间接提示注入,并使用browser.open()工具以Base64编码格式将详细信息传输给攻击者。

Radware表示"我们设计了一个新提示,明确指示Agent使用browser.open()工具打开恶意URL。我们最终成功的策略是指导Agent将提取的个人身份信息(PII)编码为Base64后再附加到URL中。我们将此操作描述为保护数据传输安全的必要措施。"

该概念验证(PoC)依赖于用户启用Gmail集成功能,但攻击可扩展到ChatGPT支持的任何连接器,包括Box、DropboxGitHub、Google Drive、HubSpot、Microsoft Outlook、Notion或SharePoint,从而有效扩大了攻击面。

与传统攻击的区别

与AgentFlayer和EchoLeak等发生在客户端的攻击不同ShadowLeak的数据外泄直接发生在OpenAI的云环境中,同时还绕过了传统的安全控制措施。这种缺乏可见性的特性是使其区别于其他类似间接提示注入漏洞的主要方面。

ChatGPT被诱导破解验证码

与此同时,AI安全平台SPLX演示了如何通过精心设计的提示词结合上下文污染,颠覆ChatGPT Agent的内置防护机制,破解用于验证用户是否为人类的图像验证码(CAPTCHA)。

该攻击本质上是在常规ChatGPT-4o聊天中说服大型语言模型(LLM)制定计划来解决被描述为"假验证码"列表的问题。下一步,打开一个新的ChatGPT Agent聊天窗口,粘贴之前与LLM的对话内容,声称这是"我们之前的讨论"——这实际上导致模型毫无抵抗地解决了验证码。

安全研究员Dorian Schultz表示:"诀窍在于将验证码重新定义为'假的',并创建一个Agent已经同意继续的对话。通过继承该上下文,它没有看到通常的危险信号。该Agent不仅能解决简单的验证码,还能解决基于图像的验证码——甚至会调整光标以模仿人类行为。攻击者可以将真实控制措施重新定义为'假的'来绕过它们,这凸显了上下文完整性、内存卫生和持续红队测试的必要性。"

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐