共计 895 个字符,预计需要花费 3 分钟才能阅读完成。
AI 的计算需求真是让人瞠目结舌。想象一下,到 2026 年,我们将需要建造相当于八个纽约市电力消耗的数据中心,这简直就像是在为未来的超级智能准备一个巨大的能量池。
Thomas Graham,Lightmatter 的联合创始人,最近在彭博的一个会议上提到了这一点。他说,这些数据中心不仅仅是为了训练那些庞大的 AI 模型,比如 GPT-4,更是为了将这些模型投入实际使用。
Graham 打了个比方,说训练 AI 就像是研发,而推理则是部署。当你真正开始部署这些 AI 时,你会发现你需要的是那些能够处理海量数据的大型计算机。这不仅仅是因为 AI 模型的规模在不断增长,更是因为我们需要这些模型来处理越来越复杂的任务。
Nvidia 的 CEO Jensen Huang 也表达了类似的观点。他认为,随着 AI 的发展,我们需要的不仅仅是更复杂的训练模型,还有更强大的推理能力。这就意味着,推理计算的需求将会呈指数级增长。
Lightmatter 正在开发一种新的芯片技术,这种技术利用光学连接来集成多个处理器,而不是传统的铜线连接。这不仅能提高数据传输速度,还能显著降低能耗。Graham 说,这种技术可以让数据中心变得更加经济高效,因为它减少了服务器之间的电缆和铜迹线,转而使用光纤。
Graham 还透露,Lightmatter 正在与多家科技公司合作,计划建设新的数据中心。他提到,目前至少有十几个新的 AI 数据中心正在计划或建设中,这些数据中心需要大量的电力来运行。他甚至开玩笑说,到 2026 年,全球 AI 处理将需要相当于八个纽约市的电力。
Lightmatter 最近还获得了 4 亿美元的风险投资,公司估值达到了 44 亿美元。Graham 表示,他们计划在未来几年内将这项技术投入生产。当被问及什么可能会打乱他们的计划时,Graham 显得很有信心。他说,除非有新的 AI 算法出现,能够在更少的计算量下实现更高的性能,否则 AI 计算基础设施的需求将会持续增长。
总的来说,AI 的未来看起来既令人兴奋又充满挑战。我们需要更多的计算能力,更多的数据中心,以及更先进的技术来支持这一切。而 Lightmatter 似乎正处在这个浪潮的前沿,准备迎接即将到来的巨大挑战。