共计 663 个字符,预计需要花费 2 分钟才能阅读完成。
Ilya Sutskever,OpenAI 的联合创始人兼前首席科学家,正在创办一家专注于安全的新 AI 公司。在周三的一篇帖子中,Sutskever 透露了 Safe Superintelligence Inc.(SSI),这是一家初创公司,其“一个目标和一个产品”是创建一个既安全又强大的 AI 系统。
该公告将 SSI 描述为一家“同步推进安全和能力”的初创公司,使该公司能够在优先考虑安全的同时快速推进其 AI 系统。公告还提到了 OpenAI、Google 和 Microsoft 等公司的 AI 团队经常面临的外部压力,称公司的“单一专注”使其能够避免“被管理开销或产品周期分散注意力”。
公告中写道:“我们的商业模式意味着安全、安全和进步都不受短期商业压力的影响。这样,我们可以在和平中扩展。”除了 Sutskever 之外,SSI 还由前苹果 AI 主管 Daniel Gross 和曾在 OpenAI 担任技术团队成员的 Daniel Levy 共同创立。
去年,Sutskever 领导了罢免 OpenAI CEO Sam Altman 的行动。Sutskever 于五月离开 OpenAI,并暗示了新项目的启动。在 Sutskever 离职后不久,AI 研究员 Jan Leike 宣布辞职,理由是安全流程“已经让位于闪亮的产品”。OpenAI 的政策研究员 Gretchen Krueger 在宣布离职时也提到了安全问题。
随着 OpenAI 与苹果和微软的合作推进,我们可能不会很快看到 SSI 这样做。在接受彭博社采访时,Sutskever 表示 SSI 的第一个产品将是安全超级智能,公司“在此之前不会做其他任何事情”。