Google Gemma 3开源AI模型发布:单GPU运行效率大幅提升

52次阅读
没有评论

共计 1015 个字符,预计需要花费 3 分钟才能阅读完成。

Google 近日发布了其最新的开源 AI 模型 Gemma 3,这款模型以其高效的性能和广泛的适用性在业界引起了广泛关注。与当前大多数追求“更大”参数规模的新 AI 模型不同,Gemma 3 特别强调在单 GPU 或 AI 加速器上的运行效率,使其成为全球范围内最适宜在单 GPU 上运行的 AI 模型之一。

Gemma 3 的上下文窗口从上一代的 8,192 token 大幅扩展至 128,000 token,显著提升了其处理复杂任务的能力。此外,Gemma 3 基于 Google 专有的 Gemini 2.0 基础,是一款多模态模型,能够处理文本、高分辨率图像甚至视频。为了增强安全性,Google 还推出了 ShieldGemma 2 图像安全解决方案,该方案可以与 Gemma 3 集成,有效屏蔽危险、色情或暴力等不良内容。

Google Gemma 3 开源 AI 模型发布:单 GPU 运行效率大幅提升

在硬件兼容性方面,Gemma 3 经过优化,能够在从高性能 GPU 到智能手机的几乎任何设备上运行。Google 提供了多种规模的 Gemma 3 模型,从仅支持文本的 10 亿参数小型模型到占用大量内存的 270 亿参数大型版本,开发者可以根据自己的硬件条件选择合适的模型。在低精度模式下,最小的 Gemma 3 模型可能占用不到 1GB 内存,而超大版本即使在 4 位精度下也需要 20GB–30GB 内存。

在性能方面,Google 提供的数据显示,Gemma 3 在大多数开源模型基础上有了显著改进。使用衡量用户偏好的 Elo 指标,Gemma 3 27B 在聊天能力上超越了 Gemma 2、Meta Llama3、OpenAI o3-mini 等模型。尽管在这一相对主观的测试中,Gemma 3 尚未完全赶上 DeepSeek R1,但其在单个 Nvidia H100 加速器上运行的性能表现仍然令人印象深刻。Google 还表示,Gemma 3 在数学、编码和遵循复杂指令方面也表现更强,但未提供具体数据支持这一说法。

开发者现在可以通过 Google AI Studio、Google Colab 和 Vertex AI 等工具开始尝试使用 Gemma 3。此外,Gemma 3 作为开源模型,还可以从 Kagle 或 Hugging Face 等代码库下载。尽管 Google 的许可协议对使用范围有所限制,但开发者仍可以在自己的硬件上自由探索 Gemma 3 的潜力。

为了进一步激发开发者的创造力,Google 推出了一个新的“Gemmaverse”社区,展示使用 Gemma 模型构建的应用程序。无论开发者想做什么,总有一款 Gemma 模型适合其硬件,这无疑为 AI 开发领域带来了更多的可能性。

正文完
 0
admin-gah
版权声明:本文于2025-03-13转载自Ars Technica,共计1015字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码