共计 890 个字符,预计需要花费 3 分钟才能阅读完成。
OpenAI 的高级顾问 Miles Brundage 在周三宣布离职时,对人工通用智能(AGI,即人类水平的人工智能)的准备情况发出了严厉警告:没有人准备好迎接人工通用智能,包括 OpenAI 本身。
“无论是 OpenAI 还是其他前沿实验室,都没有准备好迎接 AGI,世界也没有准备好,”Brundage 写道,他在过去的六年中帮助塑造了公司的 AI 安全计划。“明确地说,我认为这在 OpenAI 的领导层中并不是一个有争议的声明,值得注意的是,这与公司和世界是否在相关时间点上准备好是两个不同的问题。”
他的离职标志着 OpenAI 安全团队一系列高调离职的最新一例。著名研究员 Jan Leike 在声称“安全文化和流程已经让位于闪亮的产品”后离开了公司。联合创始人 Ilya Sutskever 也离职创办了自己的 AI 初创公司,专注于安全的 AGI 开发。
Brundage 的“AGI Readiness”团队的解散,距离公司解散专注于长期 AI 风险缓解的“Superalignment”团队仅几个月,突显了 OpenAI 的原始使命与其商业野心之间的紧张关系。据报道,该公司面临着在两年内从非营利组织转变为营利性公共福利公司的压力,否则可能需要退还最近 66 亿美元投资轮的资金。这种向商业化的转变长期以来一直让 Brundage 感到担忧,他在 2019 年 OpenAI 首次成立营利性部门时就表达了保留意见。
在解释他的离职时,Brundage 提到了在高知名度公司中其研究和出版自由的日益受限。他强调了在 AI 政策讨论中需要独立的声音,这些声音不受行业偏见和利益冲突的影响。作为 OpenAI 内部准备工作的顾问,他认为自己现在可以从组织外部对全球 AI 治理产生更大的影响。
这一离职也可能反映了 OpenAI 内部更深层次的文化分歧。许多研究人员加入公司是为了推进 AI 研究,现在发现自己处于一个日益以产品为导向的环境中。内部资源分配已成为一个焦点——有报道称,Leike 的团队在最终解散之前被拒绝为安全研究提供计算能力。
尽管存在这些摩擦,Brundage 指出,OpenAI 已提出支持他的未来工作,提供资金、API 积分和早期模型访问,没有任何附加条件。