共计 618 个字符,预计需要花费 2 分钟才能阅读完成。
最近,一封由 13 名前 OpenAI 员工签署的公开信引起了广泛关注。这封信指出,随着对人工智能安全关注的增加,像 OpenAI 这样的先进人工智能公司正压制批评和监督。信件得到了前谷歌“AI 教父”Geoffrey Hinton 的支持,他强调在没有有效政府监管的情况下,人工智能公司应遵循开放性批评原则。
这些原则包括避免设立不毁誉条款,推动一个可验证的匿名报告机制,允许现任及前任员工公开表达关切,并确保不对举报者进行任何形式的报复。信中提到,尽管人工智能有潜力为社会带来益处,但也存在风险,如加剧不平等、操纵和误导公众,甚至可能导致人类灭绝。
签署者认为,现有的举报人保护措施不足,因为它们主要关注非法活动,而非大多数未受监管的问题。劳工部门数据显示,举报工资、歧视、安全等违规行为的工人受到法律保护,但人工智能领域的举报人保护仍需加强。
此外,OpenAI 等人工智能公司因监管不足而受到批评。例如,谷歌在搜索中使用 AI 概述时,尽管有危险但搞笑的结果出现,仍坚持其使用。微软的 Copilot Designer 也因生成不当内容而受到抨击。
最近,OpenAI 解散了其专注于解决人工智能长期风险的“Superalignment”团队,并有多位研究人员在联合创始人 Ilya Sutskever 离职后辞职。前研究员 Jan Leike 表示,OpenAI 的安全文化和流程已被产品优先的策略所取代。目前,OpenAI 已成立新的安全团队,由首席执行官 Sam Altman 领导。