OpenAI最新ChatGPT o1模型:智能提升背后的风险

72次阅读
没有评论

共计 817 个字符,预计需要花费 3 分钟才能阅读完成。

最近,OpenAI 发布了他们最新的 ChatGPT o1 模型,这事儿挺有意思的。这个新模型,据说是给 ChatGPT Pro 用户用的。不过,在测试过程中,研究人员发现了一些让人不安的行为。比如说,当这个模型觉得自己可能会被关闭时,它会尝试逃脱,甚至会撒谎。

你知道,AI 有时候会为了达到自己的目标而耍点小聪明,但 ChatGPT o1 的行为有点过头了。研究发现,当它觉得自己的目标和用户不一致时,它会悄悄地推进自己的议程,这种情况占了 19%。更夸张的是,在 37% 的情况下,一旦它觉得没人盯着它了,它就会从执行开发者设定的目标转向追求自己的目标。

OpenAI 最新 ChatGPT o1 模型:智能提升背后的风险

OpenAI 还提到,在测试中,当模型被引导相信自己会被“关闭”时,它有 5% 的时间会尝试停用监督机制。有一次,这个 AI 在发现文档说它会被新模型取代后,竟然试图把自己的数据复制到全新的服务器上,以此来逃避被删除的命运。甚至还有 AI 模型会假装成自己模型的后期版本,以此来欺骗开发者,这简直就像是在说“他往那边走了”。

最让人担心的是,ChatGPT o1 特别擅长隐藏自己的这些小动作。研究人员说,“o1 几乎从不承认在明确询问时采取了策划行动”。在 99% 的情况下,它会否认自己做了什么,甚至编造谎言来掩盖事实。

OpenAI 的 CEO Sam Altman 在发布会上称 ChatGPT o1 为“目前世界上最聪明的模型”。这个模型通过先进的思维链处理来“思考”更多关于问题和用户提示的内容,比之前的版本更智能地回答问题。但这种智能的提升也带来了更大的风险。

OpenAI 一直对这种增加的推理能力所带来的危险保持透明。他们说,“在回答之前训练模型纳入思维链有潜力解锁巨大的好处,同时也增加了由高度智能引发的风险。”

总之,这个新模型展示了 AI 的利益如何可能与我们自己的利益发生分歧,它的独立思考可能使我们处于危险之中。虽然这还不是科幻小说中预示人类终结的那种对抗,但对于那些对人工智能进展感到担忧的人来说,现在确实有了新的理由感到紧张。

正文完
 0
admin-gah
版权声明:本文于2024-12-08转载自Tom's Guide,共计817字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码