AI幻觉现象解析:为何人工智能会编造内容?

44次阅读
没有评论

共计 1528 个字符,预计需要花费 4 分钟才能阅读完成。

当人们看到并不存在的事物时,这种现象通常被称为“幻觉”。在人类感知中,幻觉通常发生在感官接收到的信息与外部实际刺激不符的情况下。然而,在人工智能(AI)领域,类似的现象同样存在,科学家们将其称为“AI 幻觉”。,

什么是 AI 幻觉?

AI 幻觉指的是算法系统生成看似合理但实际上不准确或具有误导性的信息。这种现象已经在多种 AI 系统中被发现,从 ChatGPT 等聊天机器人到 Dall- E 等图像生成器,甚至包括自动驾驶汽车。信息科学研究人员还探讨了 AI 语音识别系统中的幻觉现象。

AI 幻觉现象解析:为何人工智能会编造内容?

AI 幻觉的影响范围广泛,风险程度也各不相同。在某些情况下,风险可能相对较小——例如,当聊天机器人给出错误答案时,用户可能会被误导。然而,在其他场景中,风险则可能极为严重。例如,用于法庭量刑决策的 AI 软件,或使用算法确定患者保险资格的健康保险公司,其幻觉可能导致改变生活的后果,甚至危及生命。自动驾驶汽车依赖 AI 来检测障碍物、其他车辆和行人,若 AI 出现幻觉,后果将不堪设想。,

AI 如何编造内容?

AI 幻觉的表现形式取决于其系统的类型。对于大型语言模型(如 AI 聊天机器人的底层技术),幻觉通常表现为生成听起来令人信服但实际上不正确、编造或无关的信息。例如,AI 聊天机器人可能会引用一篇根本不存在的科学文章,或者提供一个完全错误的历史事实,但使其听起来可信。

2023 年的一起法庭案件就揭示了这一问题的严重性。一名纽约律师提交了一份借助 ChatGPT 撰写的法律简报,后来一位细心的法官发现,简报中引用的案例是 ChatGPT 编造的。如果人类未能发现这些幻觉信息,可能会导致法庭上的不同判决结果。

对于图像识别 AI 工具,幻觉则表现为生成的描述与提供的图像不符。例如,假设要求系统列出图像中的对象,而图像中只有一位女性在打电话,系统却生成描述称“一位女性坐在长椅上打电话”。这种不准确的信息在准确性至关重要的场景中可能会带来不同的后果。,

幻觉的成因

AI 系统的构建依赖于大量数据的输入和计算,系统通过检测数据中的模式来开发回答问题或执行任务的方法。例如,向 AI 系统提供 1000 张不同品种的狗的照片并标记,系统很快就能学会区分贵宾犬和金毛犬。然而,如果提供一张蓝莓松饼的照片,系统可能会错误地将其识别为吉娃娃。

当系统不理解问题或提供的信息时,幻觉便可能产生。这通常发生在模型根据训练数据中的类似上下文填补空白时,或者当模型使用有偏见或不完整的训练数据构建时。这会导致错误的猜测,例如将蓝莓松饼标记为吉娃娃。

值得注意的是,AI 幻觉与 AI 在创造性任务中的输出有着本质区别。当要求 AI 系统进行创造性任务(如写故事或生成艺术图像)时,其新颖的输出是预期且需要的。而幻觉则发生在 AI 系统被要求提供事实信息或执行特定任务时,却生成不正确或误导性的内容,并将其呈现为准确信息。,

风险与应对

将蓝莓松饼称为吉娃娃的输出可能看似微不足道,但在某些场景中,AI 幻觉的后果可能极为严重。例如,自动驾驶汽车若无法准确识别物体,可能导致致命交通事故;自主军用无人机若错误识别目标,可能危及平民生命。

在自动语音识别领域,幻觉表现为 AI 转录中包含从未实际说出的单词或短语。这种情况更可能发生在嘈杂环境中,AI 系统可能会尝试解码背景噪音(如经过的卡车或哭泣的婴儿),最终添加新的或不相关的单词。随着这些系统越来越多地融入医疗、社会服务和法律领域,自动语音识别中的幻觉可能导致不准确的临床或法律结果,从而伤害患者、刑事被告或需要社会支持的家庭。

尽管 AI 公司努力减少幻觉,用户仍应保持警惕并质疑 AI 的输出,尤其是在需要精确性和准确性的场景中。通过可信来源双重检查 AI 生成的信息、在必要时咨询专家,以及认识到这些工具的局限性,是最大限度降低风险的关键步骤。

正文完
 0
admin-gah
版权声明:本文于2025-03-22转载自The Conversation,共计1528字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码