共计 1084 个字符,预计需要花费 3 分钟才能阅读完成。
能源部科学家近日参与了一场为期一天的“AI 即兴创作会”,旨在评估新模型在解决“国家最紧迫的科学挑战”方面的能力。此次活动由 OpenAI 主办,汇集了来自九个实验室的 1000 名科学家,他们使用包括 OpenAI 的 o3-mini 和 Anthropic 最新发布的 Claude 3.7 Sonnet 在内的多个 AI 模型,以推动各自的研究进展。
Anthropic 在公告中指出,此次会议为评估 AI 在管理科学探究中的复杂性和细微差别方面的潜力,以及其解决通常需要大量时间和资源的复杂科学挑战的能力,提供了更为真实的测试环境。
这场“AI 即兴创作会”是美国政府、Anthropic 和 OpenAI 之间现有合作协议的一部分。今年 4 月,Anthropic 与能源部 (DOE) 和国家核安全管理局 (NNSA) 合作,对 Claude 3 Sonnet 进行了红队测试,以评估其是否会泄露危险的核信息。此外,OpenAI 也于 1 月 30 日宣布将与 DOE 国家实验室合作,利用其最新的推理模型加速科学研究。
国家实验室网络由 17 个科学研究和测试站点组成,分布在全国各地,研究领域涵盖从核安全到气候变化解决方案的广泛主题。OpenAI 在活动公告中表示,参与的科学家还被邀请评估模型的反应,并向公司提供反馈,以改进未来的 AI 系统,使其更好地满足科学家的需求。该公司还表示,将分享会议中关于科学家如何更有效地利用 AI 模型的发现。
OpenAI 在公告中引用了能源部长 Chris Wright 的声明,他将 AI 的发展比作曼哈顿计划,称之为国家在科学和技术领域的下一个“爱国努力”。OpenAI 与国家实验室的广泛合作旨在加速和多样化疾病治疗与预防,改善网络和核安全,探索可再生能源,并推进物理学研究。
此次“AI 即兴创作会”与国家实验室的合作,伴随着私人 AI 公司与政府之间的其他多项举措,包括 OpenAI 为地方、州和联邦机构量身定制的聊天机器人 ChatGPT Gov,以及价值 5000 亿美元的数据中心投资计划 Project Stargate。
这些合作协议揭示了美国 AI 战略在特朗普政府下如何淡化安全和监管的线索。尽管这些协议尚未完全落地,但 AI 安全研究所的人员削减,作为 DOE 更广泛裁员的一部分,已经被谣传了几个星期,研究所的负责人也已辞职。当前政府的 AI 行动计划尚未宣布,使得 AI 监督的未来仍悬而未决。
随着特朗普政府与 AI 公司更紧密地合作,并降低第三方监督机构的参与优先级,类似这样的合作伙伴关系可能会变得更加普遍。这些关系将 AI 的最新发展直接置于政府倡议的手中。随着部署的加快,对新模型的强大性和安全性的监督风险甚至更小——监管在美国已经处于萌芽状态。