共计 1517 个字符,预计需要花费 4 分钟才能阅读完成。
人工智能系统(如 ChatGPT)正被越来越多地描绘成能够思考、感受甚至拥有意识的存在。这种描述虽然容易理解,却并不正确。我们目睹的并非机器心智的诞生,而是一种由流畅的语言和人类根深蒂固的倾向共同创造的强大错觉——我们总倾向于将任何能够与我们相似交流的事物视为具备智能与意图。
这种误解至关重要。如果不加以澄清,它可能扭曲公共讨论与政策制定,并在人工智能被应用于高风险场景时模糊责任的归属。
思考的错觉:语言流畅不等于理解
大型语言模型并不会思考、理解或知晓它们所说的内容。它们没有信念、目标或意识。它们真正拥有的,是生成在统计上与人类交流高度相似的语言的非凡能力。
这些系统通过海量文本进行训练,学习预测一段文字接下来可能出现哪些词语。当它们回应指令时,并非在进行逻辑推理或反思意义,而仅仅是根据已学到的模式生成最可能的文本延续。
由于其输出流畅、连贯且符合语境,便营造出一种正在思考的印象。但流畅不等于理解。语言的表现力并不是意识的证据。,
人类为何容易被说服:本能的认知捷径
将能够说话的机器视为思考实体,并不是教育或智力的不足,而是人类认知的固有特征。
人类是社会性生物,在进化过程中习惯于将语言视为心智的信号。当某物能够连贯地说话时,我们会本能地推断其意图、理解力和能动性。这种本能在人际交往中非常有效,但用在机器上却会产生误导。
人工智能系统无意中利用了这种认知捷径。它们并非为了欺骗而设计,但其输出结果恰好触发了我们天生倾向于归因心智的习惯。于是,模拟行为与真实心智状态之间便持续产生混淆。,
学习而不理解:优化与意识的混淆
部分混淆源于对人工智能如何被描述为“学习”的误解。当一个人工智能系统随着时间改善表现时,看起来可能与儿童的学习过程相似。但这种相似性仅仅是表面上的。
儿童通过经验学习,逐步发展理解力,并形成基于感知和互动的概念。人工智能系统则是通过调整参数,以更好地拟合数据中的模式。它并不知道自己学到了什么、为何学习,也不理解这些内容与真实世界的关联。
看似学习的行为并不需要意识,它只需要优化。当我们混淆这两者时,就可能赋予其本不存在的智能。,
为何这种误解是危险的:模糊的责任归属
真正的风险并非人工智能突然获得意识,而在于人类可能将流畅的系统误认为是理解自身行为的主体。
当人工智能的输出被当作权威结论而非概率性结果时,责任可能悄然从人类决策者身上转移。错误被归咎于机器故障,判断力被让渡给本不具备此能力的系统,问责机制变得模糊不清。
这在教育、医疗、法律和公共管理等领域尤其值得警惕,因为这些领域正越来越多地借助人工智能工具来辅助影响真实人群的决策。如果我们相信这些系统能够思考,就可能以不合理的方式过度依赖它们。,
重新聚焦辩论:从哲学思辨到实际问题
关于人工智能的公共讨论常常围绕机器意识或人类水平智能等推测性问题展开。这些讨论在哲学上或许有趣,却容易分散人们对更紧迫议题的注意力。
更关键的问题涉及权力、责任与治理:谁控制着人工智能系统?其输出如何被使用?当它们造成损害时,谁应负责?人类如何在借助人工智能辅助决策的同时,始终保持责任担当?
清晰的理解是制定良好政策的基础。将人工智能系统实事求是地视为生成令人信服但不理解语言的工具,有助于社会集中关注其带来的真正挑战。,
认清人工智能的本质:从错觉到责任
人工智能并不会假装思考。它完全按照设计的方式运行。错觉其实来自我们自身。
认识到这一点并不会削弱人工智能的重要性或影响力。相反,这让我们能够更负责任地对待这项技术。当我们不再追问机器是否正在获得意识时,便可以开始提出真正重要的问题:,
- 这些系统应当如何被使用?
- 哪些领域不应使用?
- 以及,我们如何确保人类的判断力、责任与问责制始终牢固地存在?