2026年美国最严人工智能法规如何落地?法律专家深度解析SB-53与RAISE法案

21次阅读
没有评论

共计 2983 个字符,预计需要花费 8 分钟才能阅读完成。

律师与安全研究员向 ZDNET 解读了美国迄今约束力最强的人工智能立法可能带来的实际影响。随着 2026 年的到来,美国的人工智能监管格局正在发生深刻变化,州级立法先行一步,而联邦层面的统一框架依然模糊。

2026 年美国最严人工智能法规如何落地?法律专家深度解析 SB-53 与 RAISE 法案

imaginima/iStock/Getty Images Plus via Getty Images

核心要点

  • 两项关键州级人工智能法律已生效,而联邦层面的监管框架依然模糊。
  • 特朗普政府重新发起对州级人工智能立法的挑战。
  • 研究人员认为现行法律仍不足以应对风险。

2026 年已过去数周,特朗普政府尚未在联邦层面提出任何人工智能立法提案。与此同时,对科技行业影响深远的加利福尼亚州和纽约州,其首批人工智能安全法律已经正式实施。然而,去年 12 月的一项行政命令及随后成立的工作组,再次引发了对州级人工智能法律的冲击。这些新法律在实践中意味着什么?它们能否经受住联邦层面的审查?

聚焦 SB-53 法案与 RAISE 法案

加利福尼亚州 SB-53 法案 是一项全新的人工智能安全法律,已于 1 月 1 日生效。该法案要求模型开发者公开其减轻人工智能最大风险的计划,并报告涉及模型的安全事件(违规罚款可能高达 100 万美元)。尽管不如该州此前尝试的立法全面,但在监管几乎空白的人工智能领域,这项新法律已成为为数不多的监管手段之一。随后,纽约州在 12 月底通过的 RAISE 法案 也加入了监管行列,其内容与加州法律相似。

RAISE 法案同样规定了涉及各种规模模型的安全事件报告义务,但对公司的首次违规设定了高达 300 万美元的罚款上限。SB-53 法案要求公司在安全事件发生后 15 天内通知州政府,而 RAISE 法案则要求 72 小时内通知。

SB-53 法案的早期版本 SB-1047 曾更为严格,要求人工智能实验室对成本超过 1 亿美元的模型进行安全测试,并开发“紧急停止开关”以便在模型失控时进行干预。该法案因被指责会扼杀就业和创新而未能通过——这是当前政府执政期间对监管努力的典型回应。

SB-53 法案采取了更为温和的策略。与 RAISE 法案一样,它仅适用于年总收入超过 5 亿美元的公司。这一门槛使得许多小型人工智能初创公司免于遵守该法的报告和文档要求。

“设置这个收入门槛很有意思,尤其是考虑到现在已经出现了许多更精简的人工智能模型,它们处理能力强大,却可以由较小的公司部署,”元宇宙法律事务所创始人、数据保护律师 Lily Li 告诉 ZDNET。她指出,州长 Gavin Newsom 否决 SB-1047 法案的部分原因,正是其可能给小公司带来抑制增长的成本,一些游说团体也表达了同样的担忧。

谈及这一门槛,她表示:“我认为这更多是出于政治动机,而非必然基于公司规模或模型规模所带来的人工智能潜在危害的差异。”

与 SB-1047 相比,SB-53 更侧重于透明度、文档记录和报告,而非直接规制实际危害。该法案针对防范灾难性风险(如网络、化学、生物、放射性及核武器攻击、人身伤害、袭击,或开发者失去对人工智能系统控制的情况)设置了防护要求。

州级人工智能立法面临的新限制

反对人工智能安全监管的现任政府及相关公司,尤其在联邦层面,认为监管会拖慢发展速度、损害科技行业就业,并在全球人工智能竞赛中将优势拱手让给中国等国家。

去年 12 月 11 日,特朗普总统签署了一项 行政命令,重申了将人工智能法律集中于联邦层面的意图,以确保美国公司能够“在没有繁琐监管的情况下自由创新”。该命令辩称,“各州过度的监管阻碍了这一目标的实现”,因为它造成了法律拼凑的局面,其中一些法律据称“越来越多地要求实体在模型中嵌入意识形态偏见”。

该命令还宣布成立一个人工智能诉讼工作组,旨在挑战那些与“对人工智能施加最低负担的国家政策框架”不一致的州法律。这延续了国会今年夏天的一项尝试,即 禁止各州在未来 10 年内通过人工智能法规,该提案曾威胁扣留不遵守规定的州的宽带和人工智能基础设施资金。这项暂停令最终被压倒性多数否决,暂时保留了各州在其辖区内立法监管人工智能的权利。

上周,CBS 新闻报道 称,司法部正在组建该工作组。CBS 新闻查阅的一份内部备忘录显示,该工作组将由美国司法部长 Pam Bondi 或另一位被任命者领导。

尽管如此,Lily Li 预计新工作组不会对州级监管产生实质性影响,至少在加利福尼亚州是如此。

“人工智能诉讼工作组将重点关注那些根据休眠商业条款和第一修正案违宪、被联邦法律优先适用,或以其他方式非法的法律,”她告诉 ZDNET。“然而,第十修正案明确规定,如果没有联邦法律,或者联邦法律没有优先于州法律,则相关权力保留给各州。”

除了人工智能标准与创新中心(CAISI,前身为 人工智能安全研究所 )发布了一份关于人工智能代理安全风险的 新信息征询书 之外,本届政府似乎并未提出替代州法律的方案。

“联邦 HIPAA(健康保险流通与责任法案)要求允许各州通过更严格的州级医疗隐私法律,”Li 说。“在人工智能领域,目前没有联邦法律可以优先适用于许多州法律,而且国会此前已多次拒绝在立法中加入联邦人工智能优先适用条款的努力。”

额外的保护与潜在限制

加利福尼亚州的 SB-53 法案还要求人工智能公司保护举报人。这一点引起了 Li 的特别注意。她指出,与法律中其他已在 《欧盟人工智能法案》 中有所体现、因此许多公司已有所准备的部分不同,举报人保护条款在科技领域是相对独特的。

“显然,人工智能领域还没有很多相关案例,因为这是一个新领域,”Li 说。“我认为这对许多科技公司来说是一个更大的担忧,因为科技行业人员流动率很高,而且市场前景难以预测。这是公司在裁员过程中担心的另一件事。”

她补充道,SB-53 的报告要求使公司更加担心会创造出可能在未来被用于集体诉讼的证据材料。

人工智能安全中心特别项目助理 Gideon Futerman 认为,SB-53 不会对安全研究的日常工作产生有意义的影响。

“这不会带来太大改变,主要是因为欧盟人工智能法案已经要求进行类似的披露,”他解释说。“SB-53 没有施加任何新的负担。”

两项法律都没有强制要求人工智能实验室必须由第三方测试其模型,尽管纽约的 RAISE 法案在起草时确实包含了年度第三方审计的要求。尽管如此,Futerman 仍将 SB-53 视为一种进步。

“这表明人工智能安全监管是可能的,并且具备政治势头。然而,目前正在进行的真正安全工作的数量,仍然远远低于所需水平,”他说。“那些竞相构建超级智能人工智能、同时承认这些系统可能带来灭绝级别风险的公司,仍然没有真正理解他们的模型是如何工作的。”

人工智能安全的现状与未来

“与潜在危险相比,SB-53 的监管水平微不足道,但这是在透明度方面值得迈出的第一步,也是美国围绕灾难性风险进行的首次执法尝试。这本应是几年前就该达到的水平,”Futerman 评价道。

Li 表示,无论州和联邦法规如何演变,受利润驱动,治理已经成为人工智能公司更高优先级的任务。企业客户正在将责任转移给开发者,而投资者在其融资决策中也越来越关注隐私、网络安全和治理问题。

尽管如此,她指出,许多公司只要有可能,仍会在监管机构的视线之外运营。

“仅靠透明度并不能保证系统的安全,但这是至关重要的第一步,”Futerman 说。他希望未来的立法能够填补国家安全战略中剩余的空白。

“这包括加强出口管制和芯片追踪,改进对国外前沿人工智能项目的情报收集,并与其他国家就人工智能的军事应用进行协调,以防止意外升级,”他补充道。

正文完
 0
admin-gah
版权声明:本文于2026-01-16转载自Zdnet,共计2983字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码