共计 1112 个字符,预计需要花费 3 分钟才能阅读完成。
近期,哥伦比亚新闻评论(CJR)的一项研究揭示了 AI 搜索引擎存在严重的信息编造问题。研究显示,以 OpenAI 和 xAI 为代表的 AI 搜索引擎在回答特定新闻事件查询时,约 60% 的测试查询输出了虚假信息,其中 xAI 的 Grok 模型在极端情况下甚至达到了 97% 的编造率。
研究团队向多个 AI 模型提供了实际新闻故事的直接摘录,要求其识别文章的标题、出版商和 URL 等关键信息。结果显示,Perplexity 在 37% 的情况下返回了错误信息,而 Grok 则几乎完全依赖编造细节。这些错误包括提供无法访问的文章链接,甚至自行编造 URL。
值得注意的是,部分搜索引擎如 Perplexity 会绕过《国家地理》等网站的付费墙获取内容,即使这些网站使用了搜索引擎通常尊重的禁止爬取文本。尽管 Perplexity 试图通过收入分成协议来安抚出版商,但其拒绝停止这种做法的态度引发了争议。
这种不准确性可能随着俄罗斯等国家向搜索引擎提供宣传信息而进一步恶化。AI 搜索引擎依赖的检索增强生成技术,虽然能够在生成答案时搜索网络获取实时信息,但也增加了信息失真的风险。
《时代》杂志首席运营官马克·霍华德对出版商在 AI 模型中的内容控制权表示担忧。他指出,如果用户从《卫报》等知名媒体收到的新闻故事是错误的,这将严重损害出版商的品牌信誉。最近,BBC 就因 Apple Intelligence 的通知摘要错误地重写新闻提醒而向苹果公司提出质疑。
然而,霍华德也指出,用户对免费 AI 工具准确性的盲目信任也是问题的一部分。他表示:“如果任何消费者现在相信这些免费产品将是 100% 准确的,那么他们应该感到羞耻。”
这种信任危机源于多方面的因素。首先,人们倾向于依赖 AI 搜索引擎提供的即时答案,而不是主动核实信息源。CJR 的数据显示,现在四分之一的美国人使用 AI 模型进行搜索,而即使在生成式 AI 工具推出之前,超过一半的 Google 搜索都是“零点击”的。
其次,AI 语言模型本质上是一种“美化的自动完成系统”,它们并不真正理解自己所说的内容,而是试图创建看起来正确的东西。这种即兴发挥的特性使得它们在处理复杂信息时容易出现偏差。
尽管霍华德认为聊天机器人未来还有改进的空间,并引用“今天是产品最糟糕的时候”来暗示其发展潜力,但这种乐观并不能掩盖当前存在的问题。在 AI 技术快速发展的同时,如何确保信息的准确性和可靠性,已经成为亟待解决的重要课题。
随着 AI 搜索引擎在信息获取中的角色日益重要,对其准确性的监管和用户教育变得至关重要。这不仅关系到个人获取信息的质量,更影响着整个社会的认知结构和决策过程。在这个信息爆炸的时代,保持批判性思维和主动核实信息的习惯,或许是我们应对 AI 搜索引擎信任危机的最佳方式。