AI监管迫在眉睫:Anthropic呼吁政府在18个月内采取行动

80次阅读
没有评论

共计 1071 个字符,预计需要花费 3 分钟才能阅读完成。

某公司发出警告:“主动预防 AI 风险的窗口正在迅速关闭。”以下是原因。

AI 监管迫在眉睫:Anthropic 呼吁政府在 18 个月内采取行动

距离美国总统选举仅剩几天,AI 公司 Anthropic 正在呼吁对其进行监管——以免为时已晚。

周四,这家以安全为重点的行业佼佼者公司发布了针对政府的“针对性监管”建议,并附上了可能令人担忧的关于其所谓的“灾难性”AI 风险上升的数据。

这些数据超越了 Anthropic 在 2023 年的预测,即网络和 CBRN 风险将在两到三年内成为紧迫问题。该博客称:“根据上述进展,我们认为我们现在更接近这些风险。”

政府的指导方针

该博客解释道:“明智、有针对性的监管可以让我们两全其美:实现 AI 的益处,同时减轻风险。拖延可能会导致最糟糕的结果:设计不佳、仓促的监管,既阻碍进步,又无法有效应对风险。”

Anthropic 建议政府采取行动,使用其自身的负责任扩展政策(RSP)作为“原型”,但不替代,以减少风险而不妨碍科学和商业领域的创新。Anthropic 承认,很难预测何时实施护栏,因此将其 RSP 描述为一个通过定期测试调整 AI 日益增长能力的比例风险管理框架。

该公司确定了成功 AI 监管的三个组成部分:透明度、激励安全性和简单性与专注性。

目前,公众无法验证 AI 公司是否遵守其自身的安全指南。为了创建更好的记录,Anthropic 表示,政府应要求公司“制定并发布类似 RSP 的政策”,明确何时触发哪些保障措施,并发布其系统每一代的风险评估。当然,政府还必须有一种方法来验证所有这些公司声明是否真实。

Anthropic 还建议政府激励更高水平的安全实践。该公司建议:“监管机构可以确定 RSP 必须解决的威胁模型,在某种合理标准下,同时将细节留给公司。或者他们可以简单地指定 RSP 必须满足的标准。”

Anthropic 还强调,立法应易于理解和实施。该公司在其建议中倡导“简单性与专注性”,鼓励政府不要为 AI 公司创造不必要的“负担”,这可能会分散注意力。

行业建议

Anthropic 还敦促其同行 AI 公司实施支持监管的 RSP。该公司指出,在风险造成损害之前,而不是之后,提前定位计算机安全和安全的重要性,以及这对实现该目标的招聘有多么关键。

Anthropic 解释道:“‘如果 - 那么’结构要求在模型变得足够有能力时应用安全和安全措施。”

那么接下来呢?

Anthropic 总结道:“未来一年,政策制定者、AI 行业、安全倡导者、民间社会和立法者必须共同努力,制定一个符合上述条件的有效监管框架。在美国,这理想情况下应在联邦层面发生,尽管紧迫性可能要求由各州开发。”

AI 监管迫在眉睫:Anthropic 呼吁政府在 18 个月内采取行动

Matt Anderson Photography/Getty Images

正文完
 0
admin-gah
版权声明:本文于2024-11-02转载自Zdnet,共计1071字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码