与当前大多数新型 AI 模型追求更多参数、更多 token、更多一切的趋势不同,Google 最新的 AI 模型虽然也有一些令人印象深刻的数据,但它更注重效率。Google 表示,Gemma 3 开源模型是世界上最适合在单个 GPU 或 AI 加速器上运行的模型。这款最新的 Gemma 模型主要面向需要在各种环境下(从数据中心到智能手机)创建 AI 应用的开发者。现在,你就可以开始尝试使用 Gemma 3。
相比早期的 Google 开源模型,Gemma 3 能够处理更具挑战性的任务。其上下文窗口(用于衡量可输入数据量的指标)已从之前 Gemma 模型的 8,192 个 token 扩展到了 128,000 个。基于专有的 Gemini 2.0 基础架构开发的 Gemma 3 是一个多模态模型,能够处理文本、高分辨率图像甚至视频。Google 还推出了一个名为 ShieldGemma 2 的新图像安全解决方案,可以与 Gemma 集成,帮助在危险、色情或暴力三个内容类别中屏蔽不当图像。
你所听说过的大多数流行 AI 模型都运行在数据中心的服务器集群上,这些服务器配备了大量 AI 计算能力。它们中的许多模型都过于庞大,无法在家用或办公设备上运行。去年首批 Gemma 模型的发布为开发者和爱好者提供了另一个低硬件要求的选择,可以与 Meta Llama3 等模型竞争。最近,AI 领域出现了追求效率的趋势,像 DeepSeek R1 这样的模型因其较低的计算成本而受到关注。
Google 称 Gemma 3 是"世界上最好的单加速器模型"。不过,并非该模型的所有版本都适合本地处理。它提供了多种规格,从仅支持文本的 10 亿参数小型模型(几乎可以在任何设备上运行),到需要大量内存的 270 亿参数大型版本。此外还有 40 亿和 120 亿参数的版本。在低精度模式下,最小的 Gemma 3 模型可能占用不到 1GB 内存,但超大版本即使在 4 位精度下也需要 20GB-30GB 内存。
那么 Gemma 3 的性能如何呢?Google 提供的数据显示,它在多个方面都明显优于其他开源模型。使用衡量用户偏好的 Elo 指标,Gemma 3 27B 在聊天功能方面远超 Gemma 2、Meta Llama3、OpenAI o3-mini 等模型。虽然在这个相对主观的测试中,它未能超越 DeepSeek R1,但它只需要一个 Nvidia H100 加速器就能运行,而其他模型通常需要多个 GPU。Google 表示,Gemma 3 在数学、编程和执行复杂指令方面也更加出色,但未提供具体数据支持。
你可以在 Google AI Studio 在线使用最新的 Gemma 模型。你还可以使用 Google Colab 和 Vertex AI 等工具对模型进行微调训练,或者直接使用自己的 GPU。新的 Gemma 3 模型是开源的,你可以从 Kagle 或 Hugging Face 等代码库下载。虽然 Google 的许可协议限制了使用范围,但在自己的硬件上探索时 Google 并不会知道你在做什么,这正是像 Gemma 3 这样更高效的本地模型的优势所在。
无论你想做什么,总有一个适合你硬件配置的 Gemma 模型。需要灵感?Google 新推出的"Gemmaverse"社区展示了许多基于 Gemma 模型构建的应用。