OpenAI面临安全争议:AI发展的双刃剑

93次阅读
没有评论

共计 1624 个字符,预计需要花费 5 分钟才能阅读完成。

OpenAI 在开发与人类智能相媲美的 AI 领域处于领先地位。然而,员工们不断在媒体和播客上表达他们对这家价值 800 亿美元的非营利研究实验室安全问题的严重担忧。最新的一则消息来自《华盛顿邮报》,匿名消息源声称 OpenAI 在确保产品安全之前就匆忙通过了安全测试并庆祝其发布。

n

“他们在知道是否安全发布之前就计划了发布后的派对,”一位匿名员工告诉《华盛顿邮报》。“我们基本上在这个过程中失败了。”

n

安全问题在 OpenAI 中显得尤为突出——而且似乎不断涌现。OpenAI 的现任和前任员工最近签署了一封公开信,要求这家初创公司改进安全和透明度实践,不久之后,其安全团队在联合创始人 Ilya Sutskever 离职后被解散。关键研究员 Jan Leike 在不久后辞职,并在一篇文章中声称,“安全文化和流程在公司中被闪亮的产品所取代”。

n

安全是 OpenAI 章程的核心,其中有一条款声称,如果竞争对手达到了人工通用智能(AGI),OpenAI 将协助其他组织推进安全,而不是继续竞争。该公司声称致力于解决这种大型复杂系统固有的安全问题。OpenAI 甚至将其专有模型保密,而不是公开(这导致了批评和诉讼),出于安全考虑。这些警告听起来似乎尽管安全对公司的文化和结构至关重要,但已被降级。

n

显然,OpenAI 正处于风口浪尖——但仅靠公关努力不足以保护社会。

n

“我们为提供最先进和最安全的 AI 系统而感到自豪,并相信我们科学的方法来应对风险,”OpenAI 发言人 Taya Christianson 在给《The Verge》的一份声明中说。“鉴于这项技术的重大意义,严格的辩论至关重要,我们将继续与世界各地的政府、民间社会和其他社区合作,以服务于我们的使命。”

n

根据 OpenAI 和其他研究新兴技术的人士的说法,安全问题的利害关系巨大。“当前的前沿 AI 发展对国家安全构成了紧迫和日益增长的风险,”美国国务院在三月份委托的一份报告称。“先进 AI 和 AGI 的出现有可能以类似于核武器引入的方式破坏全球安全。”

n

OpenAI 的警报也紧随去年董事会政变,短暂罢免了 CEO Sam Altman。董事会表示,他因未能“始终如一地坦诚沟通”而被免职,导致了一项调查,但这对员工的安抚作用不大。

n

OpenAI 发言人 Lindsey Held 告诉《Post》,GPT-4o 的发布“没有在安全上偷工减料”,但另一名未透露姓名的公司代表承认,安全审查的时间线被压缩到了一周。我们“正在重新考虑我们的整个做法,”这位匿名代表告诉《Post》。“这不是最好的方式。”

n

面对持续的争议,OpenAI 试图通过一些适时发布的公告来平息恐惧。本周,它宣布与洛斯阿拉莫斯国家实验室合作,探索先进的 AI 模型,如 GPT-4o,如何安全地协助生物科学研究,并在同一公告中反复强调洛斯阿拉莫斯自己的安全记录。第二天,一位匿名发言人告诉《Bloomberg》,OpenAI 创建了一个内部尺度来跟踪其大型语言模型在人工通用智能方面的进展。

n

本周 OpenAI 以安全为重点的公告似乎是在面对对其安全实践日益增长的批评时的防御性掩饰。显然,OpenAI 正处于风口浪尖——但仅靠公关努力不足以保护社会。真正重要的是,如果 OpenAI 继续未能按照内部人士声称的那样,开发具有严格安全协议的 AI,那么对硅谷泡沫之外的人们的潜在影响:普通人在私有化 AGI 的发展中没有发言权,但他们别无选择,只能接受 OpenAI 创造的保护程度。

n

“AI 工具可能是革命性的,”FTC 主席 Lina Khan 在 11 月告诉《Bloomberg》。但“就目前而言,”她说,存在担忧,“这些工具的关键输入被相对少数的公司控制。”

n

如果针对其安全协议的众多指控是准确的,这无疑会引发关于 OpenAI 是否适合担任 AGI 管理者的角色的严重问题,这一角色该组织基本上已经自行赋予了自己。允许旧金山的一个团体控制可能改变社会的技术是令人担忧的,而且现在比以往任何时候都迫切需要在其内部要求透明度和安全。

正文完
 0
admin-gah
版权声明:本文于2024-07-13转载自TheVerge,共计1624字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码