科学家研发类脑计算机,或将实现手机自学习AI

4次阅读
没有评论

共计 1005 个字符,预计需要花费 3 分钟才能阅读完成。

德克萨斯大学达拉斯分校的科研团队近日取得突破性进展,成功开发出一款新型计算机原型,其学习方式更接近人类大脑。这一革命性技术或将彻底改变机器的学习模式,并为手机、可穿戴设备等低功耗设备带来高效的自学习 AI 技术。

该研究由电气与计算机工程副教授 Joseph S. Friedman 博士领衔,其团队开发的神经形态计算系统模仿了大脑神经元的工作方式。与传统 AI 系统相比,这种受大脑启发的硬件能够以更少的训练计算量进行模式识别和预测。

 科学家研发类脑计算机,或将实现手机自学习 AI

“ 我们的工作展示了一条构建能够自主学习的大脑启发式计算机的潜在新路径,”Friedman 博士表示,” 由于神经形态计算机不需要大量的训练计算,它们可以为智能设备提供动力,而无需巨大的能源成本。”

传统计算机架构将内存与处理单元分离,导致数据需要不断在两者之间移动,这使得人工智能系统能耗高且严重依赖大量标注数据集。相比之下,神经形态计算借鉴了大脑的工作原理,让神经元和突触共同处理和存储信息。突触根据活动强度增强或减弱,从而实现持续学习。

Friedman 团队的研究基于神经心理学家 Donald Hebb 提出的 Hebb 定律,即 ” 一起放电的神经元会连接在一起 ”。研究团队利用这一原理,开发出能够自主学习的计算机系统。” 如果一个人工神经元导致另一个人工神经元放电,连接它们的突触会变得更导电,”Friedman 解释道。

该系统的核心是磁隧道结(MTJs),这是一种由两层磁性层和中间绝缘层组成的纳米级器件。通过将 MTJs 连接成网络,研究人员创建了一个能够根据信号调整连接强度的系统,这一过程类似于大脑突触在学习过程中的演变。MTJs 的二进制切换特性还解决了长期以来困扰其他神经形态方法的数据存储问题。

Friedman 团队的下一步目标是扩大原型规模,使其能够处理更复杂的学习任务。更大规模的神经形态系统有望实时处理数据,同时仅消耗当今 AI 芯片所用功率的一小部分。这种高效的计算方式可能使手机、可穿戴设备和其他边缘设备能够在本地运行高级 AI 模型,而无需依赖庞大的云服务器。

此外,这项技术还有望缓解全球数据中心日益增长的压力。目前,AI 计算消耗了大量能源,而神经形态计算可能提供一种更可持续的解决方案。

“ 如果成功,这项技术可以使智能设备无需不断连接到云端即可思考和适应,”Friedman 表示。该研究成果已发表在《Communications Engineering》期刊上,为未来 AI 技术的发展开辟了新的可能性。

正文完
 0
admin-gah
版权声明:本文于2025-11-01转载自Interesting Engineering,共计1005字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码