OpenAI推出新一代推理AI模型o1,初期仅对部分开发者开放

54次阅读
没有评论

共计 1163 个字符,预计需要花费 3 分钟才能阅读完成。

OpenAI 最近宣布将推出其新一代“推理”AI 模型 o1,不过初期仅对部分开发者开放。从本周二开始,o1 将逐步向那些达到“5 级”使用资格的开发者开放。要获得这一资格,开发者需要在 OpenAI 平台上至少花费 1,000 美元,并且账户自首次成功付款后已超过 30 天。

这个新模型取代了之前在 API 中可用的 o1-preview 版本。与大多数 AI 不同,o1 具备自我事实核查的能力,这让它在处理问题时能避免一些常见的错误。不过,这种能力也有代价——o1 的推理过程相对较慢,而且成本较高。运行这种模型需要大量的计算资源,因此 OpenAI 对 o1 的收费也相对较高:每处理约 750,000 个单词收费 15 美元,生成同样数量的单词则收费 60 美元。相比之下,OpenAI 的 GPT-4o 等非推理模型成本要低得多,大约只有 o1 的六分之一。

OpenAI 推出新一代推理 AI 模型 o1,初期仅对部分开发者开放

尽管价格不菲,o1 的可定制性却相当高。它支持函数调用,允许模型连接到外部数据源;开发者还可以通过消息来指导模型的语气和风格;此外,o1 还具备图像分析功能。API 中还引入了一个名为“reasoning_effort”的参数,开发者可以通过调整这个参数来控制模型在响应查询前的“思考”时间。

OpenAI 还提到,API 中的 o1 版本是经过“新后训练”的,特别是在“基于反馈的模型行为领域”有所改进。这个版本被称为“o1-2024-12-17”,与两周前在 ChatGPT 中发布的 o1 模型相比,它在处理编程和商业相关问题时,能够提供更全面和准确的响应,且不太可能错误地拒绝请求。

OpenAI 表示,他们正在逐步扩大 o1 的访问权限,并计划提高速率限制。与此同时,OpenAI 还宣布了 GPT-4o 和 GPT-4o mini 模型的新版本,这些模型作为 Realtime API 的一部分,专为构建低延迟、AI 生成语音响应的应用程序而设计。这些新模型在数据效率和可靠性方面有所提升,且使用成本更低。

值得一提的是,Realtime API 目前仍处于测试阶段,但已经引入了多项新功能,比如并发带外响应,允许后台任务在不中断交互的情况下运行。此外,API 现在还支持 WebRTC,这是一个为浏览器、智能手机和物联网设备构建实时语音应用程序的开放标准。有趣的是,OpenAI 在 12 月初聘请了 WebRTC 的创建者 Justin Uberti,这显然是为了进一步提升 API 的性能。

最后,OpenAI 还将其偏好微调功能引入了微调 API 中。通过比较模型响应的对,偏好微调可以“教导”模型区分问题的偏好答案和“非偏好”答案。此外,OpenAI 还为 Go 和 Java 的官方软件开发工具包推出了“早期访问”测试版。

总的来说,OpenAI 的这些新动向显示了他们在 AI 领域的持续创新和扩展,尽管 o1 的高成本可能会让一些开发者望而却步,但其强大的功能和可定制性无疑会吸引那些愿意投入资源的开发者。

正文完
 0
admin-gah
版权声明:本文于2024-12-19转载自TechCrunch,共计1163字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码