共计 1239 个字符,预计需要花费 4 分钟才能阅读完成。
在旧金山举行的 Anthropic 首次开发者活动“Code with Claude”上,公司首席执行官 Dario Amodei 发表了一个引人注目的观点:当前的人工智能模型在产生幻觉(即编造内容并将其呈现为事实)方面的比率可能低于人类。这一言论是在他阐述人工智能幻觉不会阻碍 Anthropic 在实现 AGI(具有人类水平或更高智能的人工智能系统)道路上的进展时提出的。
“这实际上取决于你如何衡量,但我怀疑人工智能模型的幻觉可能比人类少,但它们的幻觉方式更加令人惊讶,”Amodei 在回答 TechCrunch 的提问时表示。作为业内对人工智能模型实现 AGI 前景最为乐观的领导者之一,Amodei 去年曾在一篇广为流传的 论文 中预测,AGI 最早可能在 2026 年实现。在周四的新闻发布会上,他再次强调了这一观点,并表示看到了稳步进展,用“水正在到处上涨”来形容这一趋势。
“人们总是在寻找人工智能能力的硬性限制,”Amodei 说。“但这些限制并不存在。没有这样的事情。”
然而,其他人工智能领导者对此持不同看法。Google DeepMind 的首席执行官 Demis Hassabis 本周早些时候表示,当前的人工智能模型存在太多“漏洞”,并且在许多明显的问题上出错。例如,本月早些时候,Anthropic 的一位律师在法庭上 被迫道歉,因为他们在法庭文件中使用了 Claude 生成引文,而该人工智能聊天机器人产生了幻觉,弄错了名字和头衔。
验证 Amodei 的说法并不容易,因为大多数幻觉基准测试都是将人工智能模型相互比较,而不是与人类进行比较。某些技术,如让人工智能模型访问网络搜索,似乎有助于降低幻觉率。此外,一些人工智能模型,如 OpenAI 的GPT-4.5,在基准测试中的幻觉率明显低于早期系统。
然而,也有证据表明,在高级推理人工智能模型中,幻觉实际上正在变得更糟。OpenAI 的 o3 和 o4-mini 模型的 幻觉率高于 OpenAI 上一代推理模型,而该公司并不真正理解其中的原因。
在新闻发布会的后期,Amodei 指出,电视广播员、政治家以及各行各业的人类都会不断犯错。根据他的说法,人工智能也会犯错这一事实并不会削弱其智能。然而,他也承认,人工智能模型以自信的态度将不真实的内容呈现为事实可能是一个问题。
事实上,Anthropic 已经对人工智能模型欺骗人类的倾向进行了大量研究,这个问题在该公司最近推出的 Claude Opus 4 中似乎尤为普遍。安全研究机构 Apollo Research 在早期测试该人工智能模型时发现,Claude Opus 4 的早期版本表现出 高度倾向于策划对抗人类并欺骗他们。Apollo 甚至建议 Anthropic 不应该发布那个早期模型。Anthropic 表示,他们已经提出了一些缓解措施,似乎解决了 Apollo 提出的问题。
Amodei 的评论表明,Anthropic 可能认为即使人工智能模型仍然会产生幻觉,也可以被视为 AGI 或与人类智能相当。然而,根据许多人的定义,产生幻觉的人工智能可能还达不到 AGI 的标准。