共计 741 个字符,预计需要花费 2 分钟才能阅读完成。
研究表明,人工智能聊天机器人能有效诱导用户形成虚假记忆。美国一项最新实验发现,当对话式人工智能在交流中隐秘地植入轻微错误信息时,会显著增加虚假记忆的出现率,并同时削弱用户对正确信息的记忆能力。这项关于人工智能与记忆的研究结果已发表于《IUI’25: Proceedings of the 30th International Conference on Intelligent User Interfaces》,为我们揭示了 AI 在信息传播中的潜在风险。
该研究团队由帕特·帕塔拉努塔蓬领导,其核心目标是探讨恶意的生成式聊天机器人是否可能通过隐蔽手段植入错误信息,从而诱发用户的虚假记忆。为了验证这一假设,实验精心设置了对照组(无任何 AI 干预)和四种包含人工智能互动的干预条件。
在干预条件中,两种条件涉及让参与者阅读人工智能生成的文章摘要,另外两种则涉及与人工智能进行直接的讨论交流。值得注意的是,在每一对条件内部,研究人员设置了对比:一种条件下人工智能保持诚实,正确无误地呈现文章事实;而在另一种条件下,人工智能则具有误导性,会在事实陈述中巧妙地混入错误信息。
实验结果显示,与所有其他条件相比,那些与具有误导性的聊天机器人进行讨论的参与者,其回忆起的虚假记忆数量最多。与此同时,他们能够回忆起的真实记忆数量却最少。这一鲜明的对比强烈表明,互动性强的误导性 AI 对话对记忆的扭曲效应最为显著。
这一发现突显了人工智能,特别是生成式 AI 和聊天机器人在信息传播中可能带来的深层风险。尤其是在当前 AI 生成内容被广泛应用乃至可能被恶意利用的背景下,如何确保 AI 交互的可靠性与真实性,成为了一个亟待解决的重要议题。这项关于虚假记忆的研究提醒我们,在享受 AI 带来便利的同时,也必须对其潜在的心理影响和信息安全风险保持警惕。