Ilya Sutskever成立新公司Safe Superintelligence Inc

109次阅读
没有评论

共计 800 个字符,预计需要花费 2 分钟才能阅读完成。

Ilya Sutskever,OpenAI 的联合创始人之一,在离开 OpenAI 仅一个月后,便成立了新公司 Safe Superintelligence Inc(SSI)。

Sutskever 作为 OpenAI 长期的首席科学家,与前 Y Combinator 合伙人 Daniel Gross 及前 OpenAI 工程师 Daniel Levy 共同创立了 SSI。

在 OpenAI 期间,Sutskever 在提升“超级智能”AI 系统的安全性方面发挥了重要作用。他和 Jan Leike 共同领导了 OpenAI 的 Superalignment 团队。然而,由于在如何处理 AI 安全问题上与 OpenAI 领导层产生分歧,Sutskever 和 Leike 均于五月离开了公司。Leike 目前领导着竞争对手 AI 公司 Anthropic 的一个团队。

Sutskever 长期以来一直关注 AI 安全中更为棘手的方面。在 2023 年发布的一篇博客文章中,Sutskever 与 Leike 预测,超越人类智能的 AI 可能在十年内出现,并且这种 AI 不一定是仁慈的,因此需要研究控制和限制它的方法。

Sutskever 至今仍致力于这一事业。周三下午,一则宣布 Sutskever 新公司成立的推文称:“SSI 是我们的使命、我们的名字以及我们整个产品路线图,因为这是我们唯一的关注点。我们的团队、投资者和商业模式都旨在实现 SSI。我们将安全和能力视为需要通过革命性工程和科学突破解决的技术问题。”

“我们计划尽可能快地推进能力,同时确保我们的安全始终领先。这样,我们可以在和平中扩展。我们的单一关注意味着不会被管理开销或产品周期分散注意力,而我们的商业模式意味着安全和进步都免受短期商业压力的影响。”

Sutskever 在接受 Bloomberg 采访时更详细地谈到了新公司,但他拒绝讨论其资金状况或估值。

SSI 在 Palo Alto 和 Tel Aviv 设有办公室,目前正在招募技术人才,致力于推动 AI 安全领域的发展。

正文完
 0
admin-gah
版权声明:本文于2024-06-20转载自Techcrunch,共计800字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码