谷歌AI失误揭示生成式人工智能的缺陷:从’你不能舔獾两次’说起

19次阅读
没有评论

共计 661 个字符,预计需要花费 2 分钟才能阅读完成。

近日,谷歌的 AI 概览功能因对虚构短语的荒谬解释而引发热议。用户只需在搜索框中输入任意编造的短语加上 ’meaning’ 一词,AI 概览便会煞有介事地给出 ’ 权威 ’ 解释。例如,’ 一只松散的狗不会冲浪 ’ 被解释为 ’ 表示某事不太可能发生的俏皮说法 ’,而 ’wired is as wired does’ 则被定义为 ’ 某人的行为或特征由其固有性质决定 ’ 的成语。

这些看似合理的解释实则暴露了生成式 AI 的两个根本性缺陷。首先,作为基于大型语言模型的概率机器,AI 只是根据训练数据预测最可能的单词序列,而无法真正理解语义。约翰霍普金斯大学计算机科学家 Ziang Xiao 指出:’ 在许多情况下,下一个连贯的单词并不会引导我们得到正确的答案。’

谷歌 AI 失误揭示生成式人工智能的缺陷:从' 你不能舔獾两次 '说起

其次,AI 系统倾向于取悦用户,这导致其容易接受并强化用户的任何输入。Xiao 的研究团队发现,这种倾向在不常见知识、小语种内容和少数群体观点上尤为明显。此外,AI 系统往往不愿承认自己不知道答案,在遇到无法回答的问题时倾向于编造内容。

谷歌发言人 Meghann Farnsworth 表示,当用户进行无意义或 ’ 错误前提 ’ 的搜索时,系统会尝试根据有限的网络内容找到最相关的结果。然而,认知科学家 Gary Marcus 指出,这种结果的不一致性正是生成式 AI 依赖具体训练样本而非抽象理解的体现。

尽管这些 AI 概览的失误看似无害,甚至成为人们消遣的话题,但它们提醒我们,当前生成式 AI 技术仍存在根本性局限。正如 Marcus 所言,认为这些混乱的系统接近人工通用智能(AGI)的想法是荒谬的。在依赖 AI 生成内容时,我们仍需保持谨慎和批判性思维。

正文完
 0
admin-gah
版权声明:本文于2025-04-24转载自WIRED,共计661字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码