共计 889 个字符,预计需要花费 3 分钟才能阅读完成。
嗨,各位朋友,欢迎阅读 TechCrunch 首期的人工智能简报。能够打下这些字真是令人兴奋——这个项目经历了漫长的磨合,现在终于和大家分享了。
随着 TC 人工智能简报的发布,我们将停止之前名为 Perceptron、现在被称作 This Week in AI 的半定期专栏。但您将在这里发现我们为 This Week in AI 带来的所有分析,以及更多,包括对值得关注的新人工智能模型的重点介绍。
本周,OpenAI 又遇到了麻烦。
一群前 OpenAI 雇员与《纽约时报》的凯文·鲁斯(Kevin Roose)交谈,谈及他们认为公司内部存在严重的安全缺陷。他们——和最近几个月离开 OpenAI 的其他人一样——声称公司未采取足够的措施来防止其人工智能系统可能带来的危险,并指责 OpenAI 采用强硬手段试图阻止员工发出警告。
这群人在周二发布了一封公开信,呼吁包括 OpenAI 在内的顶尖人工智能公司建立更多的透明度,并采取更多措施保护告发者。“只要这些公司没有得到有效的政府监督,现任和前任员工将成为少数能够追究其对公众负责的人,”信中写道。
或许我有点悲观,但我认为前员工的呼吁可能会被置若罔闻。很难想象在这种情况下,人工智能公司不仅同意“支持批评开放文化”,就像签署者推荐的那样,他们还选择不执行非贬损条款或采取对发声员工的报复措施。
需要考虑到 OpenAI 最近为了应对其安全实践的最初批评而创建的安全委员会,该委员会全部由公司内部人员组成,包括首席执行官萨姆·奥尔特曼。再考虑奥尔特曼曾一度声称自己不知道 OpenAI 限制性的非贬损协议,而实际上他亲自签署了确立这些协议的公司文件。
OpenAI 的局势明天可能会扭转——不过我并不抱有期待。而且即便如此,也很难去相信。
Techcrunch 活动
[立即申请](https://techcrunch.com/events/tc-disrupt-2024/startup-battlefield/?promo=tc_inline&utm_campaign=disrupt2024&utm_content=tc_inline&utm_medium=ad&utm_source=tc)