Ge

Gemma 3 - 1B (IT)

多模态大模型

Gemma 3 - 1B (IT)

发布时间: 2025-03-12

模型参数(Parameters)
10.0
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

128K tokens

最长输出结果
未披露
模型类型

多模态大模型

发布时间

2025-03-12

模型预文件大小

2GB

开源和体验地址

代码开源状态
预训练权重开源
Gemma Terms of Use - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Gemma 3 - 1B (IT)模型在各大评测榜单的评分

发布机构

模型介绍

关于Gemma3 系列详细的介绍参考DataLearnerAI的博客: https://www.datalearner.com/blog/1051741769941194 


Gemma3-1B(IT)是10亿参数规模版,IT表示Instruction Fine-Tuned,即指令微调版本,Google也开源未作微调的基座预训练版本,参考: https://huggingface.co/google/gemma-3-1b-pt 


Google DeepMind 最近发布了全新的 Gemma 3 系列模型,这一系列涵盖了从 1B 到 27B 参数的多个版本,面向文本、图像乃至代码的多模态处理任务。整个系列专为在消费级硬件(如手机、笔记本及高端 GPU)上高效运行而设计,不仅支持扩展上下文、提升多语言能力,还在数学推理和指令跟随等方面实现了显著提升。例如,虽然大部分版本支持 128K tokens 的长上下文能力,但参数规模最小的版本——Gemma3‑1B 则专门针对资源受限场景进行了优化,仅支持 32K tokens 的上下文长度。​


整体上,Google 发布的 Gemma 3 系列延续了纯解码器 Transformer 的架构,采用了 Grouped-Query Attention (GQA) 机制,并通过局部与全局注意力层的交替设计(如 5:1 的局部/全局比例),有效降低了长上下文推理时 KV 缓存的内存开销。同时,在预训练中,模型利用了大规模文本和图像数据,并通过知识蒸馏与后训练策略,在各项任务上实现了全面性能提升。

Gemma3‑1B 模型

在 Google 发布的多个版本中,Gemma3‑1B 作为参数量最小的模型,专为轻量化应用场景设计。尽管规模相对较小,该模型依然继承了 Gemma 3 系列的核心架构与训练理念,旨在为资源受限设备提供高效推理能力。


模型架构与设计

Gemma3‑1B 基于解码器 Transformer 架构,沿用了 Google 之前版本中的多项创新设计:

  • 解码器结构与注意力机制 该模型采用标准 Transformer 结构,并引入了 Grouped-Query Attention (GQA) 机制。结合后归一化和 RMSNorm 预归一化,并通过采用 QK‑norm 替换传统软截断,确保了注意力分布的平衡。
  • 局部与全局注意力层交替 为了应对长上下文问题,Gemma 3 系列模型在架构上采用局部滑动窗口自注意力与全局自注意力层交替排列的设计。具体来说,每 5 层局部自注意力层后接入 1 层全局自注意力层,使模型既能捕捉长距离依赖,又在推理时有效降低了 KV 缓存的内存消耗。对于 1B 模型而言,这种架构同样得以保留,不过在上下文长度上做了适当优化,仅支持 32K tokens。
  • 轻量化设计 与较大版本不同,Gemma3‑1B 在视觉编码器部分的参数设置为 0,这表明在轻量化设计中,该模型主要专注于文本处理任务,从而进一步降低了整体计算负担。

训练细节

在预训练阶段,Google 采用了与之前版本类似的训练配方,同时针对小模型的特点进行了专门调整:

  • 知识蒸馏 在预训练过程中,Gemma3‑1B 借助知识蒸馏技术,通过利用大模型输出分布来指导小模型学习,从而在参数量较少的情况下捕捉到丰富的语义信息。
  • 训练数据与 Token 化 1B 模型预训练时使用了约 2T 的 token 数据(相较于更大模型使用的 14T tokens),数据规模经过专门调整后,足以满足轻量级应用需求。整个系列均采用经过优化的 SentencePiece 分词器,词汇量约 262k,确保了对多语言的平衡处理。
  • 训练基础设施 从硬件配置上看,Gemma3‑1B 使用了 TPUv5e 平台,配置包括 512 个芯片、16 个数据切分、16 个序列切分及 2 个副本,这种设置在保证训练效率的同时,也降低了资源消耗。​
  • 量化感知训练 (QAT) 除了原始模型外,Gemma3‑1B 还提供了量化版本,通过少量步数(约 5000 步)的量化感知训练,支持 per‑channel int4、per‑block int4 以及 fp8 权重表示,大幅降低了推理阶段的内存占用和计算成本。

参数分布与对比

下表摘自技术报告中的参数统计,展示了不同模型版本的参数分布情况:

模型版本视觉编码器参数嵌入参数非嵌入参数上下文长度
Gemma3‑1B0302M698M32K tokens
Gemma3‑4B417M675M3209M128K tokens
Gemma3‑12B417M1012M10759M128K tokens
Gemma3‑27B417M1416M25600M128K tokens

可以看出,Gemma3‑1B 在轻量化设计上做出了明显取舍,取消了视觉模块并缩短了上下文处理能力,从而更适合资源受限的应用场景。


模型特点与评测表现

尽管参数量较小,Gemma3‑1B 依然展示了 Google 发布的 Gemma 3 系列的多项技术优势:

  • 轻量高效 专为消费级硬件优化的架构,使得 1B 模型能够在低算力设备上实现快速推理,适合移动应用和边缘计算场景。
  • 知识蒸馏与后训练优化 通过大模型知识蒸馏及后训练阶段的强化学习策略,Gemma3‑1B 在数学推理、逻辑判断、指令跟随以及多语言处理等任务上均有显著提升。尽管在某些复杂任务上的得分与更大模型(如 27B IT 模型)相比略有差距,但这也是轻量化设计下的合理权衡。
  • 实用性与部署优势 针对资源有限环境的特别优化,使得 Gemma3‑1B 能够轻松部署在嵌入式设备或低成本服务器上,满足对实时响应和低延迟要求较高的应用需求。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat