共计 792 个字符,预计需要花费 2 分钟才能阅读完成。
从疯狂的想法到现实世界的能源节约,明尼苏达大学的研究人员通过一种全新的“计算随机存取存储器”(CRAM)原型芯片,成功将 AI 应用的能源需求降低了惊人的 1,000 倍或更多。在一次模拟中,CRAM 技术展示了令人难以置信的 2,500 倍能源节约。
传统计算依赖于已有数十年历史的冯·诺依曼架构,即分离的处理器和内存单元,这需要不断来回移动数据,是一个能源密集型过程。明尼苏达团队的 CRAM 完全颠覆了这一模型,通过使用称为磁隧道结(MTJs)的自旋电子设备直接在内存中进行计算。
自旋电子设备利用电子的自旋而非电荷来存储数据,为传统的基于晶体管的芯片提供了一种更高效的替代方案。
“作为一种极其节能的基于数字的内存计算基底,CRAM 非常灵活,计算可以在内存阵列的任何位置进行。因此,我们可以重新配置 CRAM 以最好地匹配各种 AI 算法的性能需求。”论文的合著者 Ulya Karpuzcu 在《自然》杂志上发表的论文中说道。
通过消除逻辑和内存之间那些耗电的数据传输,像这种原型一样的 CRAM 技术对于在 AI 能源需求爆炸的时刻使其能源效率大幅提升至关重要。
国际能源署在三月份预测,全球用于 AI 训练和应用的电力消耗可能从 2022 年的 460 太瓦时翻倍至 2026 年的超过 1,000 太瓦时——几乎与整个日本的使用量相当。
研究人员在新闻稿中表示,这一突破的基础已经超过 20 年的积累,可以追溯到工程教授 Jian-Ping Wang 在利用 MTJ 纳米设备进行计算的开创性工作。
Wang 承认,他们最初摒弃冯·诺依曼模型的提议在二十年前被“认为是疯狂的”。但明尼苏达团队坚持不懈,基于 Wang 的 MTJ 研究构建,该研究启发了现在用于智能手表和其他嵌入式系统的磁性 RAM(MRAM)。
当然,像任何此类突破一样,研究人员仍需解决可扩展性、制造和与现有硅集成等方面的挑战。他们已经在计划与半导体行业领导者的演示合作,以帮助实现 CRAM 的商业化。