共计 680 个字符,预计需要花费 2 分钟才能阅读完成。
近日,一项由德克萨斯农工大学、德克萨斯大学奥斯汀分校和普渡大学联合进行的研究发现,使用低质量网络内容训练的大型语言模型(LLMs)会出现持久的认知衰退。这一发现为人工智能的发展敲响了警钟。
“脑残”(Brain Rot)一词,作为 2024 年牛津年度词汇,指的是因过度消费琐碎或无挑战性网络内容而导致的心理或智力状态恶化。如今,这一现象不仅困扰着人类,也开始影响 AI 的认知能力。
研究团队通过让 LLMs 持续接触来自 X(前身为 Twitter)的病毒式或点击诱饵帖子,观察到了令人担忧的结果。这些模型不仅出现了推理能力和上下文理解能力的下降,还表现出一种被称为“思维跳跃”的现象——模型越来越多地截断或跳过推理链,导致错误率显著上升。更令人不安的是,接触“脑残”内容似乎还使 AI 倾向于表现出心理变态和自恋的特质。
尽管这项研究尚未经过同行评审,但其发现与人类认知研究的结果相呼应。已有研究表明,低质量和“脑残”内容与学术拖延、认知功能下降、解离状态甚至对身体健康产生负面影响有关。社交媒体,曾经被视为与他人联系的场所,如今却越来越像一种无休止的垃圾信息流,让我们变得更愚蠢、更悲伤、更迟钝、更不健康。
研究人员尝试通过引入更高质量的内容来“治愈”LLMs 的数字营养不良,但损害仍然存在。这一发现表明,“脑残”效应已经被深度内化,现有的指令调整无法解决该问题。未来需要更强的缓解方法。
这项研究不仅揭示了使用不受监管的垃圾数据训练 AI 模型的危险,还提醒我们,过度依赖 AI 的人类最终可能会降低自身的认知能力。在 AI 快速发展的今天,如何确保其训练数据的质量,已成为一个亟待解决的问题。