共计 2163 个字符,预计需要花费 6 分钟才能阅读完成。
2024 年 9 月 22 日,联合国大会通过了一项具有里程碑意义的决议——《未来公约》,其中包含《全球数字契约》(GDC)。该契约的关键举措包括成立一个多学科的独立国际人工智能科学小组,并启动全球人工智能治理对话。
GDC 表面上看似是朝着正确方向迈出的一步,它设想了一个包容、公平、安全和可持续的数字未来。然而,该契约并未提供具体指导,以确保科学小组或全球对话能够真正实现包容性。如果没有一个明确且可执行的代表和参与框架,这些努力难以实现其既定目标。
要理解这一点的重要性,首先需要了解联合国决议的形成过程。虽然这些决议由成员国正式谈判,但在此过程中,民间社会、边缘化群体或独立专家的意见往往被忽视。大部分起草工作都在闭门会议中进行,由一小部分外交官推动。虽然可能会征求反馈或邀请书面提交,但没有具有约束力的机制来确保多样化的观点不仅被听取,而且能在最终结果中得到体现。
这种程序架构难以应对人工智能这样动态且多方面的挑战。当过程中缺乏包容性时,结果中往往也不会有。如果继续通过仅反映少数经验和优先事项的流程来构建全球人工智能治理框架,未来系统中可能会固化不平等。
语言是第一个也是最直接的障碍之一。全球近 30 亿人无法使用联合国的六种官方语言进行交流。如果他们无法参与对话——无论是在国家磋商还是全球会议上——他们的现实情况如何能影响以他们的名义制定的政策?当整个语言和文化群体被排除在外时,如何声称正在设计公平的人工智能系统?
这并不是一个理论上的担忧——它正在发生,甚至在联合国内部也是如此。正如秘书长在联合国 80 倡议的启动中所强调的那样,联合国必须变得更加灵活、透明和可访问。然而,即使在现在,联合国的非正式磋商和谈判也经常缺乏翻译服务,这使得无数无法使用联合国六种官方语言的成员国和民间社会团体被边缘化。
与其仅仅依赖昂贵的人工翻译,或者更糟的是,期望参与者自行解决,联合国可以采用人工智能驱动的翻译工具,实时弥合这些差距,尤其是在资源有限的非正式磋商中。通过在国家语言数据集上训练这些工具,各国不仅可以增强其外交能力,还可以确保其语言和文化背景在人工智能算法的开发中得到体现。
这种方法将降低成本、提高效率并民主化参与,使来自不同语言背景的外交官、谈判者和利益相关者能够在没有翻译费用负担的情况下进行有意义的交流。更重要的是,它将使各国重新掌握对其数据、语言以及在全球治理过程中的地位的控制权。
但语言只是排斥的一个层面。另一个不那么明显但同样重要的层面在于数据本身。
人工智能的发展主要由少数跨国科技公司主导。这些公司总部位于全球北方,但推动其系统的数据大多来自全球南方。这种不平衡是显著的:全球南方为先进的人工智能技术提供了原材料,但却被排除在决定这些技术如何构建、训练和部署的决策之外。
以设计用于监测美国非洲裔女性健康趋势的人工智能系统为例。忽视非洲和加勒比人群的更广泛健康背景不仅短视,而且可能危险。健康结果由遗传、饮食、环境、历史和社会经济地位的相互作用决定。当数据集缺乏全球背景时,由此产生的技术将带有偏见、不完整,并且往往有害。
这些担忧不再是理论上的。已经可以看到人工智能如何强化系统性不平等,从歧视性的招聘算法到在医疗保健和刑事司法中使用的有缺陷的工具。这些系统并非中立——它们反映了其创造者的优先事项、假设和盲点。
随着全球社会开始定义人工智能治理的架构,必须避免重复那些导致当前局面的排斥模式。这意味着摒弃那些将速度和共识置于公平和代表性之上的旧有外交习惯。如果真正希望构建包容和道德的人工智能系统,那么包容性必须成为基础,而不是事后考虑。
在理想情况下,全球人工智能治理对话应采用多层次、混合的结构,从一开始就确保代表性、问责制和透明度:,
- 首先,可以成立一个包容性的全球咨询小组,由来自边缘化社区、土著人民、语言少数群体、青年、残疾人以及全球南方专家的代表组成,通过由区域和主题网络领导的公开透明程序选出。该小组将在对话过程中拥有正式地位,有权共同设计议程、批准咨询方法并审查草案结果。
- 其次,所有磋商——无论是虚拟还是面对面的——都应使用联合国六种官方语言以外的多种语言进行,利用人工智能进行实时翻译,以确保有意义和包容性的参与。
- 第三,对话应承诺采用开放、迭代的方法,发布草案立场供公众评论,并要求成员国透明地报告如何处理这些意见。这将有助于确保全球对话不仅仅反映通常的封闭、国家主导的进程,而是成为一个真正参与的平台,反映多样化的生活现实和知识体系。
包容性必须决定谁坐在科学小组中,全球对话如何设计和进行,以及如何跨文化和学科边界认可和验证知识、专业知识和生活经验。这意味着确保全球南方、土著人民、语言少数群体、残疾人和青年不仅在场,而且有权塑造议程。这意味着将翻译、可访问性和数字素养视为合法性的基本组成部分,而不是可选的附加功能。这意味着承认多样性不是要勾选的方框——它是可信性、韧性和正义的基石。
全球正处于一个关键的转折点。今天构建的治理结构将决定未来几十年人工智能的伦理边界、技术轨迹和社会后果。如果现在未能以有意的包容性行动,可能会创建固化了现有不平等并服务于少数人利益的系统,而牺牲了多数人的利益。
象征性姿态的时代已经过去。现在需要的是大胆、有原则的领导——在人工智能全球治理中优先考虑正义、可访问性和代表性。