共计 2047 个字符,预计需要花费 6 分钟才能阅读完成。
丹麦技术大学的最新研究揭示了一个令人惊讶的发现:人类学习与机器学习之间存在着几何联系。研究表明,一种称为凸性的数学特性可能解释了大脑和算法如何形成概念并理解世界。随着人工智能工具的广泛应用,人们越来越意识到 AI 的内部运作与人类大脑的相似之处。
机器和人类大脑的工作方式有几种共同点,例如它们如何以抽象形式表示世界、从有限数据中归纳以及分层处理数据。丹麦技术大学的研究人员在《自然通讯》上发表的一篇新论文为这一列表增加了另一个特性:凸性。
“我们发现凸性在深度网络中出奇地常见,并且可能是机器学习过程中自然出现的基本属性,”领导这项研究的丹麦技术大学计算机系教授 Lars Kai Hansen 表示。,
凸性:连接人类与机器智能的桥梁
简而言之,当人类学习“猫”这个概念时,我们不仅仅存储一张图片,而是构建了一个灵活的理解,使我们能够识别各种猫——无论它们是大、小、毛茸茸的、光滑的、黑色的、白色的等等。
凸性一词来自数学,用于描述几何学等,Peter Gärdenfors 将其应用于认知科学,提出我们的大脑形成了概念空间,相关的想法在其中聚集。关键在于:自然概念,如“猫”或“轮子”,往往在这些心理空间中形成凸区域。简而言之,可以想象一个橡皮筋围绕一组相似的想法拉伸——这就是一个凸区域。
可以这样理解:在橡皮筋的边界内,如果有两个点代表两只不同的猫,它们之间的最短路径上的任何点也落在心理“猫”区域内。这种凸性非常强大,因为它帮助我们通过几个例子进行归纳,快速学习新事物,甚至帮助我们沟通并就事物的含义达成一致。这是一个使人类学习具有鲁棒性、灵活性和社交性的基本属性。,
人工智能的隐藏秩序:凸性的重要性
当涉及到深度学习模型——从图像生成到聊天机器人的 engine ——它们通过将原始数据(如像素或单词)转换为复杂的内部表示(通常称为“潜在空间”)来学习。这些空间可以被视为人工智能组织其对世界理解的内部地图。
为了使人工智能更加可靠、可信并与人类价值观一致,需要开发更好的方法来描述其如何表示知识。因此,确定机器学习的空间是否以类似于人类概念空间的方式组织,以及它们是否也为概念形成凸区域,至关重要。
论文的第一作者 Lenka Tetkova 是丹麦技术大学计算机系的博士后研究员,她深入探讨了这个问题,主要关注两种类型的凸性:,
- 欧几里得凸性:如果在模型的潜在空间中取一个概念内的两个点,并且它们之间的直线完全保留在该概念内,那么该区域就是欧几里得凸的。
- 图凸性:它更加灵活,对于人工智能内部表示中常见的弯曲几何尤其重要。如果概念内两点之间的最短路径完全保留在该概念内,那么它就是图凸的。
“我们开发了新的工具来测量深度神经网络复杂潜在空间中的凸性。我们在各种人工智能模型和数据类型上测试了这些测量:图像、文本、音频、人类活动,甚至医疗数据。我们发现,帮助人类形成和共享概念的几何原理——凸性——也塑造了机器的学习、归纳和与我们的对齐方式,”Lenka Tetkova 表示。,
通往更好人工智能的路径
研究人员还发现,这种共性存在于从海量数据集中学习通用模式的预训练模型和用于特定任务(如识别动物)的微调模型中。这进一步证实了凸性可能是机器学习过程中自然出现的基本属性的说法。
当模型针对特定任务进行微调时,其决策区域的凸性会增加。随着人工智能在分类方面的改进,其内部概念区域变得更加明显地凸起,从而完善其理解并锐化其边界。
“想象一下,一个概念,比如猫,在机器中形成了一个良好定义的凸区域,甚至在它被专门教导识别猫之前。那么它更有可能在以后准确地学习识别猫。我们认为这是一个强有力的洞察,因为它表明凸性可能是模型在特定学习任务中潜力的有用指标,”Lars Kai Hansen 表示。,
凸性:解开人工智能内部运作的钥匙
根据研究人员的说法,这些新结果可能具有几个重要的影响。通过将凸性识别为一种普遍属性,他们更好地理解了深度神经网络如何学习和组织信息。它提供了人工智能如何归纳的具体机制,这可能类似于人类的学习方式。
如果凸性确实被证明是性能的可靠预测指标,那么有可能设计出在训练期间明确鼓励形成凸概念区域的人工智能模型。这可能导致更高效和有效的学习,特别是在只有少数示例可用的情况下。因此,这些发现可能为人类认知和机器智能之间提供一个新的关键桥梁。
“通过展示人工智能模型表现出对人类概念理解至关重要的属性(如凸性),我们离创造以更可理解和与我们自身对齐的方式‘思考’的机器更近了一步。这对于在医疗、教育和公共服务等关键应用中建立人与机器之间的信任和协作至关重要,”Lenka Tetkova 表示。
“虽然还有很多需要探索的地方,但结果表明,看似抽象的凸性概念可能掌握着解开人工智能内部运作新秘密的钥匙,并让我们更接近智能和与人类对齐的机器。”,
项目背景
这项研究是在由诺和诺德基金会资助的研究项目“认知空间——下一代可解释人工智能”中进行的。该项目的目标是打开机器学习的黑匣子,并构建工具,用特定用户群体可以理解的概念来解释人工智能系统的内部运作。