共计 762 个字符,预计需要花费 2 分钟才能阅读完成。
谷歌最近对其 AI 搜索功能的表现进行了自我批评。在过去的一周里,这家科技巨头经历了一波社交媒体上的嘲讽和模因潮流,这些内容批评了谷歌新推出的 AI 搜索功能存在质量低劣和错误信息的问题。谷歌在周四的一篇博文中承认,确实出现了一些奇怪、不准确或无用的 AI 概述。
这些嘲讽和模因主要针对的是谷歌新推出的 AI 搜索功能,该功能尚未完全成熟,导致搜索结果中出现了不少问题。谷歌副总裁兼搜索主管丽兹·里德在博文中详细解释了 AI 概述犯错的多种方式,包括误解查询、误解网络语言的微妙之处,或者在信息不足的情况下出错。
里德还指出,社交媒体上分享的一些截图是伪造的,而其他一些则是针对毫无意义的查询。例如,对于“我应该吃多少块石头?”这样的查询,谷歌的 AI 将用户引导到了讽刺内容,这显示了 AI 在处理非标准查询时的局限性。
此外,里德提到谷歌在推出 AI 搜索功能前进行了广泛测试,包括进行了“强大的红队测试”。然而,这并未完全避免问题的出现,特别是在处理复杂的查询和理解网络语言的微妙之处时。
谷歌还面临着如何处理用户生成内容的问题。尽管 Reddit 等平台提供了丰富的用户生成内容,但这些内容并不总是可靠的。谷歌的 AI 有时会依赖这些内容来回答问题,但并未完全理解何时这些内容是有帮助的,何时是误导的,甚至是恶作剧。
尽管上周谷歌的 AI 搜索功能遭遇了一系列挑战,但公司表示正在快速迭代改进。谷歌已经查看了 AI 概述的例子,并确定了可以改进的模式,包括为毫无意义的查询构建更好的检测机制,限制用户生成内容的使用以避免提供误导性建议,为 AI 概述无助的查询添加触发限制,不显示硬新闻话题的 AI 概述,并为健康搜索的保护添加额外的触发细化。
尽管谷歌的错误可能令人感到荒谬,但现在就排除它还为时过早。考虑到谷歌的大规模测试人员,实际上是任何使用搜索的人,谷歌仍有很大的改进空间。