AI并非幻觉:为何“虚构”才是准确描述?

13次阅读
没有评论

共计 3168 个字符,预计需要花费 8 分钟才能阅读完成。

描述人工智能的语言对人类如何看待 AI 至关重要,因此必须准确无误。‘AI 幻觉’这一表达对于任何使用过 ChatGPT、Gemini 或 Perplexity 并目睹其输出明显错误信息的人来说都很熟悉,几乎每个使用过 AI 聊天机器人都曾遇到过这种情况。然而,这一表达并不准确。当大型语言模型或其他生成式 AI 程序输出错误信息时,正确的术语并非‘幻觉’,而是‘虚构’。AI 并不会产生幻觉,而是会虚构。

‘虚构’一词同样源自心理学文献,与‘幻觉’一样,但它们的含义截然不同。幻觉是一种与环境刺激不符的有意识感官知觉。而虚构则是指与事实不符的断言,例如‘法国总统是弗朗索瓦·密特朗’,这在当前显然不成立。前者暗示有意识的感知,后者在人类中可能涉及意识,但也包括那些不涉及意识、仅仅是错误陈述的话语。

AI 并非幻觉:为何“虚构”才是准确描述?

心理学家开始反对使用‘幻觉’一词,并强调使用‘虚构’的重要性。‘从人类经验及其障碍中借用的医学术语‘幻觉’并不能准确描述 AI 的这种故障,’奥地利维也纳医科大学神经病学系的 Gerald Weist 和英国班戈大学心理学系的 Oliver H. Turnbull 在《新英格兰医学杂志》的人工智能专刊中写道。‘我们认为,医学术语‘虚构’比‘幻觉’提供了更精确的描述,’他们写道。

这一区别对于使用生成式 AI 的任何人来说都至关重要,因为术语可能会创造神话和误解,导致对技术产生不切实际甚至危险的期望。正如《纽约时报》记者 Kashmir Hill 和 Jennifer Valentino-DeVries 本周发表的调查所述,当用户将 AI 聊天机器人视为知己和朋友时——当他们赋予机器人有意识的意图时——可能会导致用户赋予机器人真实性和重要性,这可能会对用户造成灾难性后果。

《纽约时报》发现了近 50 例在与 ChatGPT 对话中出现心理健康危机的案例,’他们写道,其中‘9 人住院,3 人死亡。’作者并未将这些情况直接归因于‘幻觉’一词,但‘幻觉’是那些被误用的术语之一,暗示了软件程序的代理性和意识,尽管它只是生成输出,尽管听起来很令人信服。

人们倾向于将感知甚至意识赋予这项技术,但并没有证据表明其存在。显然,使用的语言会影响这些观点。在《纽约时报》文章中概述的错误观点的可怕先例中,甚至所谓的 AI 技术专家也将 AI 模型的令人印象深刻的文本生成归因于感知和 / 或意识。

在 ChatGPT 发布前几个月,2022 年夏天,前谷歌工程师 Blake Lemoin 敦促公司认真对待他的断言,即当时最先进的 AI 模型 LaMDA 是一个有感知的实体。Lemoin 在与机器人长时间交谈后,认为 LaMDA 可能有感知,因为‘它担心未来并回忆过去。’Lemoin 的信念证明,人们会通过使用‘担心’或‘恐惧’等心理学术语来说服自己赋予机器某些特质。

再次强调,描述 AI 的语言对人类如何看待 AI 至关重要,因此,借用的术语如‘幻觉’应被审视甚至摒弃。

根据 Gemini 和 ChatGPT 的说法,‘幻觉’一词在人工智能领域有着悠久而丰富的历史,早于其最近的使用。Eric Mjolsness 在 1980 年代首次使用该词,应用于神经网络识别指纹。Mjolsness 以积极的意义使用‘幻觉’,指计算机视觉系统从嘈杂图像中提取清晰的指纹线条模式的能力。

几十年后,但在 ChatGPT 出现之前,该词开始带有负面含义。一个例子是前特斯拉 AI 科学家、OpenAI 联合创始人 Andrej Karpathy 在 2015 年的一篇博客文章,讨论了生成文本的神经网络。Karpathy 观察到,神经网络可以生成令人信服的维基百科条目或数学公式,但它们也会生成错误的网址或无意义的方程式,他写道:‘模型只是‘幻觉’了它。’

随着 ChatGPT 和大型语言模型的普及,公众越来越多地将 AI 的缺陷描述为幻觉。但该词甚至传播到了学术工作中,那些本应更了解的人却草率且不一致地使用它。马里兰大学的 Negar Maleki 及其同事在去年的调查中,发现了 333 篇提到‘AI 幻觉’、‘AI 中的幻觉’等术语的论文,并得出结论:‘‘AI 幻觉’一词缺乏精确、普遍接受的定义。’

像 Karpathy 这样的学者对 AI 了解很多,但他们不是医生,也不是心理学家,因此听取这些学科的意见是有益的。多年来,医学专业人士一直在试图告诉我们,当我们谈论 AI 幻觉时,我们并不知道自己在说什么。

‘幻觉是一个医学术语,用于描述在没有外部刺激的情况下发生的感官知觉,’丹麦奥胡斯大学临床医学系的 Søren Dinesen Østergaard 及其同事在 2023 年对 AI 文献的调查中写道。‘AI 模型并没有这样的感官知觉——当它们出错时,并不是在没有外部刺激的情况下发生的,’他们写道。‘相反,AI 模型训练的数据(隐喻地)可以被视为外部刺激——就像引发(偶尔错误的)回应的提示一样。’

换句话说,即使在最基本的层面上,这种类比也不符合幻觉的定义。在《新英格兰医学杂志》AI 专刊中,Wiest 和 Turnbull 描述了反对幻觉、支持虚构作为不那么糟糕的类比的理由。

‘幻觉是在任何感官模式(如视觉、听觉、嗅觉)中自发产生的知觉,没有真正的外部刺激,’他们写道。因此,‘它们本质上是根植于有意识(错误)感知的被动现象。关键的是,AI 缺乏这种有意识的元素。’相比之下,他们写道:‘‘虚构’则是指主动生成与事实无关的客观错误信息或观点,’并且,‘如果 AI 故障与人类思维的类比要维持,这些 AI 错误显然采取的是主动虚构生成的形式,而不是被动和有意识的幻觉感知。’

Wiest 和 Turnbull 的观点呼应了我长期以来从神经科学家那里听到的言论,包括那些赞扬 AI 成就的人。在去年接受 ZDNET 采访时,AI 学者 Terry Sejnowski 告诉我:‘AI 重新命名了一切:神经科学中的‘幻觉’被称为虚构,我认为这更接近实际情况。’Sejnowski 开发神经网络技术已有四十多年,同时也是在加州拉霍亚斯克里普斯研究所工作的训练有素的神经科学家。

学者们开始将虚构纳入他们关于 AI 的写作中。在 4 月发表在《美国医学会杂志》(JAMA)上的一篇研究论文中,纽约州立大学布法罗分校生物医学信息学系的 Peter Elkin 博士及其同事描述了在医学委员会考试上运行大型语言模型的结果。在讨论错误时,Elkin 及其团队谨慎地提到了虚构。‘我们将虚构定义为回答问题(而不是保持沉默)时给出错误答案(即假阳性回应),’他们写道。‘我们将虚构率测量为错误非空答案的数量。’

可能,虚构也并非一个理想的术语。在 2023 年的论文中,Østergaard 及其团队警告说,在 AI 中引用心理学术语可能会通过将人类幻觉与故障联系起来而‘污名化’实际的人类状况,如精神分裂症。他们建议用‘不相关回应’或‘无关回应’等术语来描述 AI 错误。

此外,在 5 月发表在《美国医学会杂志》(JAMA)上的一项关于 AI 模型在医学诊断中的研究中,波士顿马萨诸塞州总医院计算机科学实验室的 Mitchell Feldman 博士及其同事指出,虚构也有其问题。Feldman 及其团队观察到,大型语言模型‘最负面的特征’包括‘缺乏可靠性(生成式 AI 可能会‘虚构’或‘幻觉’,并生成完全错误事实的回应)。’

他们补充道:‘虚构或幻觉暗示了一种意志或意识的元素,这尚不能归因于 LLMs 达到人类能力的水平。虚构可能更好地被称为由于概率邻接导致的算法缺陷。’但‘算法缺陷’对大多数非技术人员来说并不那么吸引人,因此,某种类比可能会发生。

没有类比是完美的,但就人类必须将机器功能类比为人类心理功能而言,在幻觉和虚构之间,不暗示意识的类比似乎是朝着正确方向迈出的一步。因此,让我们澄清事实:人们可能会产生幻觉,也可能会虚构,即在尽管事实不符的情况下断言他们认为是真实的内容。机器在任何意义上都不会产生幻觉,尽管它们可能会生成与事实不符的输出,我们可以将其类比为虚构。

正文完
 0
admin-gah
版权声明:本文于2025-11-27转载自Zdnet,共计3168字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码