加州AI监管新规:如何在创新与风险管控间取得平衡?

1次阅读
没有评论

共计 1065 个字符,预计需要花费 3 分钟才能阅读完成。

一份最新报告指出,科技公司在全面理解 AI 风险和危害方面 ” 显然不足 ”。这份备受关注的《加州前沿 AI 政策报告》于周二正式发布,为加州制定 AI 监管政策提供了新的框架。

去年九月,加州州长加文·纽森否决了参议院法案 SB 1047,认为该法案过于严格且一刀切。该法案要求对训练成本超过 1 亿美元的大型 AI 模型进行特定危险测试。纽森随后委托一组领先的 AI 研究人员提出替代方案,旨在平衡 AI 开发与风险管控。

 加州 AI 监管新规:如何在创新与风险管控间取得平衡?

这份 52 页的报告由斯坦福大学李飞飞教授、卡内基国际和平基金会主席马利亚诺 - 弗洛伦蒂诺·奎利亚尔和加州大学伯克利分校詹妮弗·图尔·查耶斯教授共同领导。报告指出,自 SB 1047 被否决以来,AI 能力已经 ” 迅速提升 ”,特别是在模型的链式思维 ” 推理 ” 能力方面。

报告强调,加州在 AI 领域的突破可能对农业、生物技术、清洁技术、教育、金融、医学和交通产生重大影响。作者们一致认为,重要的是不要扼杀创新,同时 ” 确保监管负担使组织有资源遵守 ”。

然而,降低风险仍然是首要任务。报告警告:” 如果没有适当的保障措施……强大的 AI 可能引发严重的、在某些情况下可能不可逆转的损害。”

报告提出了几个关键建议:,

  • 加强对 AI 模型的透明度和独立审查
  • 保护举报人,为第三方评估提供安全港
  • 直接向公众分享信息,提高透明度

报告特别强调了第三方风险评估的重要性。作者们指出,仅靠开发者或第二方承包商进行评估是不够的。第三方评估团队不仅规模更大,而且具有 ” 无与伦比的多样性 ”,这有助于更好地识别 AI 模型的风险和盲点。

然而,实施第三方评估面临挑战。报告指出,即使是第二方评估者也难以获得足够的访问权限。例如,与 OpenAI 合作的 Metr 公司就曾表示,他们在测试 OpenAI 的 o3 模型时受到限制,无法进行强有力的能力评估。

报告还提到,超过 350 名 AI 行业研究人员去年签署了一封公开信,呼吁为独立 AI 安全测试提供 ” 安全港 ”。周二的报告引用了这封信,并呼吁进行重大变革,包括为受 AI 系统伤害的人提供报告选项。

作者们最后指出:” 即使设计完美的安全政策也无法防止 100% 的重大不利后果。随着基础模型的广泛采用,理解实践中出现的危害变得越来越重要。”

这份报告的发布正值美国国会考虑为期 10 年的 AI 监管暂停期,凸显了加州在 AI 监管领域的领先地位。报告的主要作者之一斯科特·辛格认为,加州可以帮助推动各州之间的 ” 协调努力 ”,制定 ” 许多全国范围内支持的常识性政策 ”。

随着 AI 技术的快速发展,如何在促进创新和管控风险之间找到平衡,将成为加州乃至全球面临的重要挑战。这份报告为未来的 AI 监管政策制定提供了重要的参考框架。

正文完
 0
admin-gah
版权声明:本文于2025-06-18转载自TheVerge,共计1065字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码