多模态LLMs与人类大脑的惊人相似性:对象表征新发现

3次阅读
没有评论

共计 916 个字符,预计需要花费 3 分钟才能阅读完成。

中国科学院的研究团队近日在《Nature Machine Intelligence》上发表了一项突破性研究,揭示了多模态大型语言模型(LLMs)在对象表征方面与人类大脑存在惊人的相似性。这一发现不仅深化了我们对人工智能认知机制的理解,也为脑启发式 AI 系统的开发提供了新的思路。

研究团队采用了一种创新的实验方法,要求 ChatGPT-3.5 和 GeminiPro Vision 1.0 这两个领先的 LLMs 模型完成一系列三重判断任务。在这些任务中,模型需要从三个对象中选择出两个更为相似的对象。通过收集和分析 470 万次三重判断数据,研究人员成功构建了一个包含 1854 个自然对象的低维嵌入模型。

多模态 LLMs 与人类大脑的惊人相似性:对象表征新发现

“ 我们发现,这些模型生成的对象表征不仅稳定可靠,而且呈现出与人类心理表征相似的语义聚类特征,” 研究负责人 Changde Du 和 Kaicheng Fu 表示,” 更重要的是,这些表征背后的维度具有可解释性,这表明 LLMs 确实发展出了类似人类的对象概念表征。”

研究结果显示,LLMs 在组织对象时展现出与人类思维相似的模式。例如,模型能够自然地将对象分类为 ” 动物 ”、” 植物 ” 等有意义类别。此外,通过将模型生成的对象表征与人类大脑神经活动模式进行对比,研究人员发现了显著的一致性,特别是在外纹体区域、旁海马位置区域、后扣带皮层和梭状面部区域等关键脑区。

“ 虽然 LLMs 的对象表征与人类并不完全相同,但它们确实共享了反映人类概念知识关键方面的基本相似性,” 研究团队指出,” 这为理解人工智能的认知机制提供了重要线索。”

这项研究的意义远超出技术层面。它不仅揭示了 LLMs 在模拟人类认知方面的潜力,也为心理学、神经科学和计算机科学等多个领域的交叉研究开辟了新的方向。未来,这一发现可能会推动更多关于 AI 对象表征的研究,同时为开发更接近人类认知方式的 AI 系统提供理论支持。

随着多模态 LLMs 在对象表征方面展现出与人类大脑的相似性,我们或许正在见证人工智能向类人认知迈出的重要一步。这一突破不仅展示了 AI 技术的巨大潜力,也为我们理解人类认知的本质提供了新的视角。在人工智能与人类认知的交汇处,新的科学发现和技术创新正在酝酿,这将深刻影响我们对智能本质的理解,以及未来 AI 技术的发展方向。

正文完
 0
admin-gah
版权声明:本文于2025-06-25转载自Tech Xplore,共计916字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码