人工智能实践如何应对国际和平与安全风险?

43次阅读
没有评论

共计 1043 个字符,预计需要花费 3 分钟才能阅读完成。

尽管民用人工智能的进步带来了显著的积极潜力,但其滥用对国际和平与安全构成了重大风险。关键在于,民用人工智能领域的技术社区往往对这些挑战缺乏认识、参与不足,或者不确定他们在应对这些挑战中可以发挥的作用。

作为“促进人工智能负责任创新以维护和平与安全”项目的一部分,该项目得益于欧盟的慷慨支持,联合国裁军事务办公室(UNODA)一直在与学术界、工业界和民间社会的人工智能从业者和技术专家接触,探讨负责任的实践、风险管理框架,以及如何从设计阶段开始应对国际和平与安全风险,包括通过《人工智能负责任创新手册》。

人工智能实践如何应对国际和平与安全风险?

2025 年 9 月 27 日,UNODA 与主办方 Google DeepMind 和首尔国立大学在首尔举行的机器人学习会议(CoRL)上共同举办了一场特别会议,题为“正确进行机器人学习:负责任地开发机器人基础模型”。该会议探讨了能够广泛适用于各种机器人实体和任务的大规模机器学习模型所引发的伦理和责任问题。机器人基础模型和视觉 - 语言 - 行动系统有望在具身智能领域开辟新的可能性,从护理机器人到自适应制造,但也带来了与安全、责任和公平相关的独特挑战,以及对国际和平与安全的潜在风险。

UNODA 作为专家小组成员,与来自全球的人工智能和机器人从业者进行了交流。

该会议汇集了多学科领域的专家演讲者,包括全智英教授(韩国科学技术院)、韩素媛教授(首尔国立大学)、Carolina Parada 博士(Google DeepMind)和 Charles Ovink 先生(UNODA)。讨论涵盖了人机交互、偏见与公平、治理与监督以及滥用风险等关键主题。小组成员强调,需要建立情境感知的伦理框架,以平衡创新与安全、可靠性和信任,尤其是在这些系统日益融入社会和护理环境的情况下。

2025 年 10 月 13 日,UNODA 继续其技术参与活动,Charles Ovink 先生加入了普林斯顿大学的科学与全球安全(SGS)项目,与研究人员和技术专家探讨如何推进负责任的科学创新方法,以支持裁军、军备控制、防扩散和国际和平与安全。该普林斯顿项目在军备控制和防扩散研究与政策方面有着长期贡献,为将人工智能和机器人技术的伦理与治理考虑与数十年科学政策参与的经验教训联系起来提供了宝贵的论坛。

UNODA 与普林斯顿的年轻研究人员和技术专家讨论人工智能开发中的负责任实践,以及风险管理框架如何帮助应对国际和平与安全风险。

这些活动共同强调了在人工智能的负责任使用方面促进包容性、跨学科对话的重要性,并确保推动人工智能未来的技术从业者积极参与应对其可能带来的风险。

正文完
 0
admin-gah
版权声明:本文于2025-11-04转载自UNODA,共计1043字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码