OpenAI面临内部安全问题及前员工公开信

93次阅读
没有评论

共计 889 个字符,预计需要花费 3 分钟才能阅读完成。

嗨,各位朋友,欢迎阅读 TechCrunch 首期的人工智能简报。能够打下这些字真是令人兴奋——这个项目经历了漫长的磨合,现在终于和大家分享了。

随着 TC 人工智能简报的发布,我们将停止之前名为 Perceptron、现在被称作 This Week in AI 的半定期专栏。但您将在这里发现我们为 This Week in AI 带来的所有分析,以及更多,包括对值得关注的新人工智能模型的重点介绍。

本周,OpenAI 又遇到了麻烦。

一群前 OpenAI 雇员与《纽约时报》的凯文·鲁斯(Kevin Roose)交谈,谈及他们认为公司内部存在严重的安全缺陷。他们——和最近几个月离开 OpenAI 的其他人一样——声称公司未采取足够的措施来防止其人工智能系统可能带来的危险,并指责 OpenAI 采用强硬手段试图阻止员工发出警告。

这群人在周二发布了一封公开信,呼吁包括 OpenAI 在内的顶尖人工智能公司建立更多的透明度,并采取更多措施保护告发者。“只要这些公司没有得到有效的政府监督,现任和前任员工将成为少数能够追究其对公众负责的人,”信中写道。

或许我有点悲观,但我认为前员工的呼吁可能会被置若罔闻。很难想象在这种情况下,人工智能公司不仅同意“支持批评开放文化”,就像签署者推荐的那样,他们还选择不执行非贬损条款或采取对发声员工的报复措施。

需要考虑到 OpenAI 最近为了应对其安全实践的最初批评而创建的安全委员会,该委员会全部由公司内部人员组成,包括首席执行官萨姆·奥尔特曼。再考虑奥尔特曼曾一度声称自己不知道 OpenAI 限制性的非贬损协议,而实际上他亲自签署了确立这些协议的公司文件。

OpenAI 的局势明天可能会扭转——不过我并不抱有期待。而且即便如此,也很难去相信。

Techcrunch 活动
[立即申请](https://techcrunch.com/events/tc-disrupt-2024/startup-battlefield/?promo=tc_inline&utm_campaign=disrupt2024&utm_content=tc_inline&utm_medium=ad&utm_source=tc)

正文完
 0
admin-gah
版权声明:本文于2024-06-06转载自Techcrunch,共计889字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码