科技巨头联手成立UALink组织 推动AI加速器标准化

110次阅读
没有评论

共计 1376 个字符,预计需要花费 4 分钟才能阅读完成。

英特尔、谷歌、微软、Meta 等重量级科技公司正联手创建一个名为 Ultra Accelerator Link (UALink) 推动组织的新行业组织,旨在指导数据中心中连接 AI 加速器芯片的组件的开发。

UALink 推动组织于周四宣布成立,其成员还包括 AMD、惠普企业、博通和思科等公司。该组织提议建立一个新的行业标准,以连接越来越多服务器中的 AI 加速器芯片。广义上来说,AI 加速器是从 GPU 到定制解决方案的芯片,用于加速 AI 模型的训练、微调和运行。

AMD 数据中心解决方案总经理 Forrest Norrod 在周三的简报中告诉记者:“行业需要一个能够快速推进、允许多家公司为整个生态系统增加价值的开放标准。”他说:“行业需要一个允许创新以快速速度进行的标准,不受任何单一公司的束缚。”

根据提议的标准 UALink 1.0,将能够在一个计算“pod”(即一组紧密连接的计算资源,通常用于处理大规模数据或运行复杂应用)中连接高达 1,024 个 AI 加速器(仅限 GPU)。UALink 1.0 基于包括 AMD 的 Infinity Fabric 在内的“开放标准”,能够实现与 AI 加速器附加的内存之间的直接读写操作,并且相对于现有的互连规范,能够提高速度和降低数据传输延迟。

该组织表示将在第三季度创建一个名为 UALink 联盟的机构,负责监督 UALink 标准的后续开发。共同加入该联盟的公司将在同一时间获得 UALink 1.0 的版本,而在 2024 年第四季度将推出更高带宽的更新规格 UALink 1.1。

AMD 数据中心解决方案总经理 Forrest Norrod 表示,首个 UALink 产品将在“接下来的几年”推出。

值得注意的是,在该组织成员名单中,最引人注目的缺席者是 Nvidia,作为市场上占有 80% 至 95% 份额的 AI 加速器最大生产商。Nvidia 拒绝就此事发表评论,可能是因为该公司为数据中心服务器内的 GPU 提供了自己的专有互连技术,且目前处于非常强大和有影响力的地位。

至于亚马逊网络服务(AWS),作为唯一未参与 UALink 的公共云巨头,它可能正在观望,逐渐摆脱各种自家的加速器硬件努力。另外,AWS 在云服务市场占据着主导地位,不太可能在对手 Nvidia 供应大部分 GPU 的情况下采取反对行动。

TechCrunch 没有收到 AWS 的评论回复。

事实上,除了 AMD 和英特尔,UALink 的最大受益者似乎是微软、Meta 和谷歌,这三家公司共计花费了数十亿美元购买 Nvidia 的 GPU,以驱动其云端并训练不断增长的 AI 模型。他们都希望减少对 AI 硬件生态系统中占主导地位的供应商的依赖。

根据 Gartner 的一份最新报告(具体报告名称和发布日期未详),2021 年服务器中使用的 AI 加速器价值将达到 210 亿美元,并在 2028 年增至 330 亿美元。据 Gartner 预测,到 2025 年,AI 芯片的收入将达到 334 亿美元。

谷歌已经拥有用于训练和运行 AI 模型的定制芯片 TPUs 和 Axion。亚马逊已经拥有几个 AI 芯片系列。微软去年推出了 Maia 和 Cobalt 芯片。Meta 正在改进他们自己的加速器产品线。

此外,根据报道,微软及其亲密合作伙伴 OpenAI 计划在一个超级计算机上花费至少 1000 亿美元来训练 AI 模型,并且将配备未来版本的 Cobalt 和 Maia 芯片。这些芯片也需要有某种方式将它们连接起来,也许就是通过 UALink 实现。

正文完
 0
admin-gah
版权声明:本文于2024-05-31转载自Techcrunch,共计1376字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码