共计 2155 个字符,预计需要花费 6 分钟才能阅读完成。
人工智能系统的权利和道德考量将比预期更快地引发公众舆论的分裂,且这种分裂将沿着意识形态的界限展开。问题的核心并非在于人工智能(如聊天机器人和机器人)是否会发展出意识,而在于即使这种现象的出现,也将在已经紧张的文化分歧中进一步分裂社会。
已有迹象预示着这种分裂的到来。一个新的研究领域,正如我最近在《科学美国人》上所报道的,正在探讨痛苦的能力是否可以作为检测人工智能感知或自我意识的基准。检测人工智能感知的新方法正在涌现,最近一项关于大型语言模型(LLMs)的预印本研究展示了它们对避免痛苦的偏好。
这样的结果自然会引发一些重要的问题,这些问题远远超出了理论范畴。一些科学家现在认为,这种痛苦或其他情绪的表现可能会在人工智能中变得越来越普遍,并迫使人类考虑人工智能意识(或感知到的意识)对社会的影响。
关于人工智能感知的技术可行性问题很快让位于更广泛的社会关注。对于伦理学家杰夫·塞博(Jeff Sebo)来说,他是《道德圈:谁重要,什么重要,为什么》一书的作者,即使具有感知特征的人工智能系统在不久的将来出现的可能性,也是我们认真规划一个即将到来的时代的理由,在这个时代,人工智能福利将成为现实。在一次采访中,塞博告诉我,我们很快就有责任“采取必要的最低限度的第一步,认真对待这个问题”,并且人工智能公司需要开始评估系统的相关特征,然后制定政策和程序,以适当的道德关注对待人工智能系统。
2024 年,伦敦经济与政治科学学院的哲学教授乔纳森·伯奇(Jonathan Birch)在接受《卫报》采访时解释了他如何看待这一问题可能引发的重大社会分裂。他说,可能会出现“巨大的社会裂痕,一方认为另一方非常残忍地剥削人工智能,而另一方则认为第一方在自欺欺人,认为那里有感知”。当我在《科学美国人》的文章中与他交谈时,伯奇更进一步,表示他认为社会中已经存在某些亚文化,人们正在与人工智能形成“非常紧密的纽带”,并将它们视为“家庭的一部分”,值得拥有权利。
那么,人工智能的感知可能是什么样子,为什么它会如此具有分裂性?想象一个终身伴侣,一个朋友,它可以为你提供关于抵押贷款的建议,辅导你的孩子,指导你如何最好地处理一段艰难的友谊,或者为你提供关于如何应对悲伤的建议。至关重要的是,这个伴侣将拥有自己的生活。它将拥有记忆,并将进行终身学习,就像你我一样。由于其生活经历的性质,人工智能可能会被一些人视为独特的个体。它甚至可能自己声称是独立的。,
即使具有感知特征的人工智能系统在不久的将来出现的可能性,也是我们认真规划一个即将到来的时代的理由,在这个时代,人工智能福利将成为现实。
但我们还没有到达那一步。在 Google DeepMind 的播客中,大卫·西尔弗(David Silver)——Google AlphaGo 项目背后的主要人物之一,该项目在 2016 年著名地击败了顶级围棋选手李世石——评论了当今的人工智能系统本质上没有生命。它们还没有一个年复一年的世界经验。他建议,如果我们要实现人工通用智能(AGI)——当今人工智能研究的圣杯——未来的人工智能系统将需要拥有这样的生活,并积累多年的经验。
确实,我们还没有到达那一步,但它正在到来。当它到来时,我们可以预期人工智能将成为我们依赖、结交和爱的终身伴侣系统,这一预测基于伯奇所说的我们在某些亚文化中已经看到的人工智能亲和力。这为新的现实奠定了基础——鉴于我们对当前文化问题(如宗教、性别和气候)冲突的了解——这肯定会受到社会中许多人的巨大怀疑。
这种新兴的动态将反映许多早期的文化热点。考虑到达尔文一个多世纪后,进化论的教学在美国部分地区仍然面临阻力,或者气候变化,尽管有压倒性的科学共识,但并未阻止政治极化。在每种情况下,关于经验事实的辩论都与身份、宗教、经济学和权力纠缠在一起,形成了跨越国家和几代人的断层线。认为人工智能感知会以任何不同的方式展开是天真的。
事实上,挑战可能更大。与气候变化或进化不同——我们有冰芯和化石可以解开和理解复杂的历史——我们没有机器意识的直接经验来为辩论提供基础。可以说,没有感知人工智能的化石记录,没有机器感觉的冰芯。此外,公众可能不会关心这些科学问题。因此,随着研究人员争相开发检测和理解感知的方法,公众舆论可能会迅速前进。不难想象,这将由表达悲伤的聊天机器人、哀悼关机的机器人或恳求继续存在的虚拟伴侣的病毒视频推动。
过去的经验表明,在这种新的情感环境中,不同的群体将基于文化世界观而不是科学证据来确立立场。一些人受到塞博等技术专家和伦理学家的启发——他们将倡导包括感知人工智能在内的广泛道德圈——可能会认为,无论意识在哪里出现,都值得道德尊重。其他人可能会警告,拟人化机器可能会导致对人类需求的忽视,特别是如果公司利用情感依恋或依赖来盈利,就像社交媒体的情况一样。,
随着研究人员争相开发检测和理解感知的方法,公众舆论可能会迅速前进。
这些分歧将塑造我们的法律框架、公司政策和政治运动。一些研究人员,如塞博,认为至少我们需要让从事人工智能开发的公司和企业承认这一问题并做好准备。目前,他们做得远远不够。
由于技术的变化速度快于社会和法律的进步,现在是时候预测并应对这一即将到来的意识形态分裂了。我们需要基于深思熟虑的对话开发一个未来框架,并安全地引导社会前进。