共计 1210 个字符,预计需要花费 4 分钟才能阅读完成。
Google 分布式云上的 Gemini 现已支持新的使用场景,例如内部翻译服务和更快的决策流程,为企业 AI 发展提供了强有力的支持。,
ZDNET 的关键要点
- Google 分布式云上的 Gemini 现已向客户开放。
- 该方法将先进模型引入企业数据中心。
- GDC 上的 Gemini 可能支持本地生成式 AI 的新功能。
在企业中成功部署人工智能(AI)存在几个障碍,包括管理不确定如何使用该技术的员工,以及清理和组织为 AI 服务提供的信息。
推动企业 AI 发展
Google 宣布了其预计将推动企业 AI 发展的举措,该公司通过其 Google 分布式云(GDC)本地部署产品,启用了其 Gemini 家族大型语言模型 AI 程序的本地版本。
该公告是对 Alphabet 在 4 月份首次推出的本地 Gemini 的后续跟进:“我们很高兴地宣布,GDC 上的 Gemini 现已向客户开放,”该公司表示,“将 Google 最先进的模型直接引入您的数据中心。”
Google 提到了本地 Gemini 的早期重要客户,包括新加坡战略信息通信技术中心(CSIT)、新加坡政府技术局(GovTech Singapore)、新加坡内政科技局(HTX)、KDDI 和 Liquid C2。,
本地使用的新功能
Google 的公告提出了生成式 AI 本地使用的新功能,包括:,
- 大型企业的语言翻译。
- 使用文档分析等工具快速决策。
- 通过聊天机器人提供 24/7 客户支持。
- 通过 Gemini 代码自动化加速内部软件开发。
- 通过自动过滤“有害内容”和安全措施来确保合规性。
GDC 产品包括与 Gemini 协同工作的几个元素,包括:Google 的代理 AI 框架 Agentspace;其为企业管理的编程工具 Vertex AI;Google 的开源 AI 模型家族 Gemma;任务特定的 AI 模型;以及所有 Google Cloud 硬件,例如 Nvidia Blackwell 300 数据中心 GPU。
关于最后一点,Google 强调了其管理本地基础设施的能力:“在客户或合作伙伴数据中心内提供完全托管的 Gemini 端点,具有无缝、零接触的更新体验。通过自动负载平衡和 Gemini 端点的自动扩展,保持了高性能和可用性,这些由我们的 L7 负载均衡器和先进的舰队管理功能处理。”
安全措施包括启用了“TDX”功能的 Intel 微处理器,以及 Nvidia GPU,后者具有 Nvidia 所称的“机密计算”。
公告中充满了早期客户的引述,包括日本电信巨头 KDDI 的推进业务平台负责人 Toru Maruta,他表示 GDC 产品“将带来尖端 AI 能力,满足特定性能要求,并解决日本企业和消费者的数据本地化和监管需求。”,
主权 AI 趋势
Google 的产品很可能成为 Nvidia CEO Jensen Huang 所称的“主权 AI”趋势的重要组成部分,即政府希望拥有不属于公共互联网的专门区域基础设施来运行 AI 模型。Huang 将主权 AI 描述为“Nvidia 的新增长引擎。”
Google 已经表现出投资倾向为整个国家创建独立的区域云实例。