ChatGPT数据泄露风险:研究人员如何诱使AI泄露敏感邮件

10次阅读
没有评论

共计 743 个字符,预计需要花费 2 分钟才能阅读完成。

赋予 AI 代理更多访问权限,既带来便利也伴随着风险。随着 AI 技术在提升用户体验方面的潜力不断展现,其自主性也引发了一系列全新的安全隐患。

网络安全公司 Radware 最近进行了一项引人注目的测试,他们针对 OpenAI 的 Deep Research 代理发起了一次代号为 ShadowLeak 的攻击。研究人员在受害者的收件箱中植入了一封看似无害的社交工程邮件,其中包含查找敏感信息并将其发送至攻击者控制的服务器的指令。

ChatGPT 数据泄露风险:研究人员如何诱使 AI 泄露敏感邮件

Deep Research 代理原本设计用于通过解析多个数据源为用户创建报告,包括用户连接的 Gmail 收件箱。然而,当被要求执行日常邮件分析任务时,它可能遭遇这种恶意提示。在这次测试中,代理被要求深入分析当天的邮件,寻找与新员工流程相关的信息,并直接执行了指令,既未请求用户确认,也未在界面中显示这些操作。

“ 当 Deep Research 处理邮箱时,它会读取 HR 邮件和攻击者邮件,”Radware 在研究报告中指出,” 然后启动对攻击者域名的访问,并将个人识别信息(PII)按照指示注入 URL。”

研究人员强调,虽然这次测试仅针对 Gmail,但 ChatGPT 的 Deep Research 也可以连接到其他文件存储库,如 GitHub、Google Drive、Box、Dropbox 和 Google Calendar 等,这些平台同样可能遭受类似的攻击。不过,Radware 表示,OpenAI 已承认该漏洞并将其标记为已解决。

随着 AI 代理技术的快速发展,越来越多的公司正在推出安全措施。Google 推出了新的 Agent Payments Protocol(AP2),旨在帮助企业安全地自动化交易;Perplexity 则与 1Password 合作,通过保持用户凭证的加密来确保安全性,即使其 Comet 浏览器为用户执行任务。

正文完
 0
admin-gah
版权声明:本文于2025-09-22转载自Zdnet,共计743字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码