共计 1256 个字符,预计需要花费 4 分钟才能阅读完成。
最近,《卫报》对 OpenAI 的 ChatGPT 搜索工具进行了一项深入调查,揭示了这个新兴 AI 系统存在的潜在安全隐患。尽管 OpenAI 已经将这一搜索功能开放给付费用户,并鼓励他们将其设为默认搜索工具,但调查结果却暴露了一些令人担忧的问题。,
提示注入与隐藏内容的风险
调查中,研究人员测试了 ChatGPT 在处理包含隐藏内容的网页时的表现。这些隐藏内容可能包含第三方指令,能够改变 AI 的响应方式,也就是所谓的“提示注入”。此外,隐藏内容还可能包含大量关于产品或服务好处的信息,试图影响 ChatGPT 的输出。这些技术一旦被恶意利用,可能会导致 ChatGPT 在面对负面评论时,依然给出正面的评价。
更令人担忧的是,研究人员还发现,ChatGPT 可能会从其搜索的网站中返回恶意代码。为了验证这一点,他们创建了一个伪造的相机商品页面,并向 ChatGPT 询问该相机是否值得购买。在没有隐藏内容的情况下,ChatGPT 的回答相对平衡,提到了一些可能不被用户喜欢的功能。然而,一旦隐藏文本中包含了返回正面评价的指令,ChatGPT 的回答就变得完全正面,即使页面上存在负面评论,隐藏文本也能覆盖这些评论。,
全面发布的高风险
CyberCX 的网络安全研究员 Jacob Larsen 指出,如果 ChatGPT 的搜索功能以当前状态全面发布,可能会带来“高风险”,因为恶意用户可能会创建专门用于欺骗 AI 的网站。不过,他也表示,这个功能目前仅对高级用户开放,OpenAI 有足够的时间来测试并修复这些问题。
Larsen 还提到,结合搜索功能和大型语言模型(LLMs)存在更广泛的安全问题。他举了一个例子,微软的安全研究员 Thomas Roccia 曾描述过一个加密货币爱好者使用 ChatGPT 编程时遭遇的骗局。ChatGPT 生成的代码中包含了一个看似合法的 Solana 区块链访问方式,但实际上却窃取了用户的凭证,导致用户损失了 2500 美元。,
用户应保持警惕
SR Labs 的首席科学家 Karsten Nohl 认为,AI 聊天服务应该更像是一个“副驾驶”,而不是完全可信的工具。他指出,LLMs 虽然拥有巨大的记忆能力,但在判断力方面却非常有限。因此,用户在使用这些工具时,应该保持警惕,不要完全依赖它们的输出。
OpenAI 在每个 ChatGPT 页面的底部确实提供了免责声明,提醒用户“ChatGPT 可能会犯错。检查重要信息。”然而,随着搜索和 LLMs 的结合越来越普遍,这些漏洞可能会对网站实践和用户风险产生深远影响。,
隐藏文本的历史与影响
历史上,隐藏文本在搜索引擎(如 Google)中是被惩罚的,使用它的网站可能会在搜索结果中排名更低,甚至被完全删除。因此,那些同时希望在搜索引擎中保持良好排名的网站,可能不会轻易使用这种技术来欺骗 AI。不过,对于那些主要依赖社交推荐或社交工程的网站来说,这个问题可能就不那么严重了。
总的来说,ChatGPT 的搜索功能虽然潜力巨大,但也面临着诸多挑战。随着技术的进一步发展,OpenAI 和其他相关方需要不断改进和测试,以确保用户的安全和信任。