AI在线 AI在线

​谷歌开源新一代多模态模型 Gemma-3:性能卓越、成本降低 10 倍

作者:AI在线
2025-03-13 08:52
谷歌 CEO 桑达尔・皮查伊(Sundar Pichai)在一场发布会上宣布,谷歌开源了最新的多模态大模型 Gemma-3,该模型以低成本、高性能为特点,备受关注。 Gemma-3提供了四种不同参数规模的选项,分别为10亿、40亿、120亿和270亿参数。 令人惊讶的是,最大参数的270亿模型只需一张 H100显卡即可高效推理,而同类模型往往需要十倍的算力,这使 Gemma-3成为目前算力要求最低的高性能模型之一。

谷歌 CEO 桑达尔・皮查伊(Sundar Pichai)在一场发布会上宣布,谷歌开源了最新的多模态大模型 Gemma-3,该模型以低成本、高性能为特点,备受关注。

QQ_1741827085099.png

Gemma-3提供了四种不同参数规模的选项,分别为10亿、40亿、120亿和270亿参数。令人惊讶的是,最大参数的270亿模型只需一张 H100显卡即可高效推理,而同类模型往往需要十倍的算力,这使 Gemma-3成为目前算力要求最低的高性能模型之一。

根据最新的测试数据,Gemma-3在各类对话模型的评比中表现不俗,仅次于知名的 DeepSeek 模型,超越了 OpenAI 的 o3-mini 和 Llama3等多个热门模型。此次发布的 Gemma-3的架构延续了前两代的通用解码器 Transformer 设计,但加入了许多创新和优化。为了解决长上下文带来的内存问题,Gemma-3采用了局部与全局自注意力层交错的架构,显著降低了内存占用。

在上下文处理能力方面,Gemma-3支持的上下文长度扩展到了128Ktoken,为处理长文本提供了更好的支持。此外,Gemma-3还具备多模态能力,能够同时处理文本和图像,并集成了基于 VisionTransformer 的视觉编码器,有效减少了图像处理的计算成本。

在训练过程中,Gemma-3使用了更多的 token 预算,特别是在270亿参数模型中使用了14T 的 token 量,并引入了多语言数据,以增强模型的语言处理能力,支持140种语言,其中35种语言可以直接使用。Gemma-3采用了先进的知识蒸馏技术,在训练后期通过强化学习优化模型表现,尤其是在帮助性、推理能力和多语言能力等方面取得了显著提升。

经过评测,Gemma-3在多模态任务上表现优异,长文本处理能力也令人印象深刻,达到了66% 的准确率。此外,在对话能力评估中,Gemma-3的表现也名列前茅,显示了其在各项任务中的综合实力。

地址:地址:https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d

划重点:  

🔍 Gemma-3是谷歌最新开源的多模态大模型,参数范围从10亿到270亿,且算力需求降低10倍。  

💡 模型采用创新的架构设计,有效处理长上下文和多模态数据,支持文本与图像的同时处理。  

🌐 Gemma-3支持140种语言的处理能力,经过训练优化后在多项任务中表现优异,展现了强大的综合能力。

相关资讯

​谷歌推出新 AI 模型助力解码海豚 “语言”

谷歌的人工智能研究实验室 Google DeepMind 近日宣布,推出了一款名为 DolphinGemma 的新型 AI 模型,旨在帮助研究人员解读海豚的发声。 这一创新成果为人类更好地理解海豚之间的沟通方式提供了有力支持。 DolphinGemma 模型的训练数据来自于 Wild Dolphin Project(WDP),这是一个致力于研究大西洋斑点海豚及其行为的非营利组织。
4/15/2025 10:01:27 AM
AI在线

目标打造最强代码辅助工具,谷歌发布 CodeGemma AI 模型

谷歌公司近日发布了 CodeGemma 先进大语言模型(LLMs),专门用于生成代码、理解和追踪指令等,开发目的是让全球开发人员更容易获得高质量的代码辅助工具。CodeGemma 作为 Gemma 模型的开放访问系列推出,针对代码开发场景进行优化、微调(fine-tuned)。该套件包括三种不同的模型:20 亿参数的基础模型:优化补全和生成代码,在注重延迟和隐私的情况下主要为代码提供快速高效的解决方案。70 亿参数基础模型:整合代码补全和自然语言处理,增强了其在完成代码和理解语言生成任务时的实用性。用于指导追踪的
4/10/2024 3:07:55 PM
故渊

90/270 亿参数,谷歌发布 Gemma 2 开源 AI 模型:性能力压同级、单 A100 / H100 GPU 可运行

感谢谷歌公司昨日发布新闻稿,面向全球研究人员和开发人员发布 Gemma 2 大语言模型,共有 90 亿参数(9B)和 270 亿参数(27B)两种大小。Gemma 2 大语言模型相比较第一代,推理性能更高、效率更高,并在安全性方面取得了重大进步。谷歌在新闻稿中表示,Gemma 2-27B 模型的性能媲美两倍规模的主流模型,而且只需要一片英伟达 H100 ensor Core GPU 或 TPU 主机就能实现这种性能,从而大大降低了部署成本。Gemma 2-9B 模型优于 Llama 3 8B 和其他类似规模的开源模
6/28/2024 8:21:10 AM
故渊