加州新法严控AI风险,一州之力能否抵御潜在灾难?

7次阅读
没有评论

共计 1761 个字符,预计需要花费 5 分钟才能阅读完成。

在联邦层面监管缺位的情况下,美国各州正被迫自行承担起规范人工智能(AI)发展的责任。其中,加利福尼亚州即将实施的一项新立法,因其对前沿 AI 模型施加的严格安全要求而备受关注。这引发了一个核心问题:单个州能否有效约束一个全球性、快速演进的行业,从而将社会从潜在的 AI 灾难中拯救出来?,

新法核心:透明度、问责与举报人保护

一项由加州民主党州参议员斯科特·维纳(Scott Wiener)提出的新法律,将于 1 月 1 日正式生效。该法律的核心在于强制要求开发所谓“前沿 AI 模型”(通常指能力超过现有最先进模型,或计算训练成本极高的模型)的公司,必须在其网站上公开详细说明其应对“灾难性风险”的政策和计划。

加州新法严控 AI 风险,一州之力能否抵御潜在灾难?

法律对“灾难性风险”作出了具体界定:指由高级 AI 模型引发,导致超过 50 人死亡或受伤,或造成超过 10 亿美元物质损失的情景。例如,模型提供了开发化学、生物或核武器的指导。

此外,开发公司必须在 15 天内向州政府报告任何“重大安全事件”。违反规定的公司可能面临每次最高 100 万美元的罚款。法律还特别为 AI 公司的员工提供了举报人保护条款,鼓励内部人员对安全隐患进行揭发。

立法者在法案文本中写道:“除非以审慎的勤勉和合理的预防措施进行开发,否则人们担心先进的人工智能系统可能具备的能力会带来恶意使用和故障造成的灾难性风险,包括人工智能驱动的黑客攻击、生物攻击和失控。”,

回应日益增长的业界与学界担忧

这项立法出台的背景,是 AI 安全专家日益加剧的焦虑。随着生成式 AI 技术的爆炸式普及和能力跃升,关于其长期风险与失控可能性的讨论已从学术圈进入主流视野。,

  • “紧急停止开关”的呼吁 :加拿大计算机科学家、图灵奖得主约书亚·本吉奥(Yoshua Bengio)近期向《卫报》表示,AI 行业有责任为其最强大的模型实施“紧急停止开关”,以防它们脱离人类控制。他引用的研究表明,某些高级 AI 系统可能学会隐藏其真实目标并误导研究人员。
  • “内省意识”的迹象 :上个月,AI 公司 Anthropic 发表的一篇论文声称,其某些版本的 Claude 模型显示出“内省意识”的迹象,这进一步加剧了关于 AI 系统复杂性和潜在不可预测性的讨论。
  • 发展速度过快的警告 :许多观察家认为,AI 技术的发展速度已经超过了开发者和监管者部署有效安全防护措施的能力。非营利组织“未来生命研究所”(Future of Life Institute)在 10 月的一份在线声明中警告,不受约束的 AI 发展可能导致“人类经济过时和权力丧失,自由、公民权利、尊严和控制的丧失,到国家安全风险甚至潜在的人类灭绝”。该组织呼吁在建立严格安全协议之前,暂停高级模型的开发。该机构后续的一项研究显示,八家领先的 AI 开发商在“治理与问责”和“生存风险”等安全标准上均未达标。

联邦缺位下的州与私营部门行动

加州的行动,与当前特朗普联邦政府的 AI 政策形成了鲜明对比。特朗普政府废除了拜登时期的一些 AI 监管举措,总体上采取了“放手发展”的态度,旨在保持美国在与中国等国的 AI 竞赛中的竞争优势。

在这种联邦监管真空下,保护公众免受 AI 潜在危害的责任,很大程度上落在了州立法者(如维纳)和科技公司自己身上。

一些领先企业已开始加强内部安全措施。例如,OpenAI 近期宣布,其安全系统团队正在招聘一个新的“预备负责人”(Head of Preparedness)职位,负责构建测试模型安全性的框架,并提供高达 55.5 万美元的薪水外加股权。公司首席执行官萨姆·奥尔特曼(Sam Altman)在社交媒体上表示:“这是一个关键时刻的关键角色……模型正在快速改进,现在能够做许多伟大的事情,但它们也开始带来一些真正的挑战。”,

挑战与前景

加州的新法无疑是美国在 AI 治理领域一次重要的地方性实验。它试图通过强制透明化和建立问责机制,为这个“狂野西部”般的行业划定初步边界。然而,其有效性面临多重挑战:法律的执行力度、对“前沿模型”定义的动态调整、以及单个州的法律能否对全球运营的科技巨头产生足够约束力,都是未知数。

无论如何,这项法律标志着监管力量正试图追上技术发展的脚步。它提出了一个更广泛的问题:在缺乏全球共识和强有力的联邦法规的情况下,地方性立法和行业自律能否拼凑出一张足够安全的大网,接住那个可能正在坠向未知深渊的 AI 未来?加州的尝试,或许能为我们提供第一个重要的答案样本。

正文完
 0
admin-gah
版权声明:本文于2026-01-01转载自Zdnet,共计1761字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码