Gemma 3 - 4B (IT)
发布时间: 2025-03-12
128K tokens
基础大模型
2025-03-12
8.6GB
输入不支持
输入不支持
输入不支持
输入不支持
输入不支持
输出不支持
输出不支持
输出不支持
输出不支持
输出不支持
Gemma 3 - 4B是Google开源的第三代多模态大模型,40亿参数,这里的IT表示instruction fine-tuned版本,另外有pt的预训练基座版本: https://huggingface.co/google/gemma-3-4b-pt
关于Gemma 3系列详细介绍参考: https://www.datalearner.com/blog/1051741769941194
Google DeepMind 近期发布了 Gemma 3 系列开源模型,提供从 1B 到 27B 不同参数规模的版本,涵盖文本、图像及代码任务。这些模型的核心设计目标是在消费级硬件(如笔记本、高端 GPU 和移动设备)上高效运行,同时在多语言、长上下文、数学推理和指令跟随等方面取得显著进步。
整个系列基于纯解码器 Transformer 架构,并采用 Grouped-Query Attention (GQA) 机制,同时通过局部-全局注意力层交替的设计(例如 5:1 的局部/全局比例)优化推理效率。此外,为解决长上下文带来的 KV 缓存爆炸问题,Google 采用了缩短局部注意力窗口和调节全局层 RoPE 基础频率的方案。在预训练阶段,所有模型均采用了大规模文本与图像数据,并通过知识蒸馏与后训练优化,在各项任务上展现了优异的性能。
其中,Gemma3-4B 模型作为中等参数规模的轻量级版本,在计算效率与任务适应性之间取得了良好平衡。相较于最小版本的 Gemma3-1B,它不仅具备更强的语言理解与生成能力,还增加了对多模态(文本+图像)任务的支持,同时仍然可以在较为有限的计算资源上运行。
在 Google 发布的多个版本中,**Gemma3-4B 作为参数量适中的模型,专为需要更强计算能力但仍然关注部署成本的应用场景而设计。**它不仅继承了 Gemma 3 系列的核心架构,还通过增加视觉模块和更丰富的预训练数据,提高了多模态任务的适用性。
Gemma3-4B 延续了 Google 近年来 Transformer 模型的技术积累,并在关键组件上进行了优化,以在计算资源和推理速度之间取得平衡:
Google 采用了先进的训练策略,使得 Gemma3-4B 在相对较小的参数规模下,仍能达到优异的任务表现:
下表总结了 Google 发布的 Gemma 3 主要模型版本的参数配置,其中 4B 版本相比 1B 版本在多个维度上均有显著提升:
模型版本 | 视觉编码器参数 | 嵌入参数 | 非嵌入参数 | 上下文长度 |
---|---|---|---|---|
Gemma3‑1B | 0 | 302M | 698M | 32K tokens |
Gemma3‑4B | 417M | 675M | 3209M | 128K tokens |
Gemma3‑12B | 417M | 1012M | 10759M | 128K tokens |
Gemma3‑27B | 417M | 1416M | 25600M | 128K tokens |
可以看出,Gemma3-4B 相比 1B 版本的主要优势在于更大的模型规模、更长的上下文长度(128K tokens),以及对视觉任务的支持。
Google DeepMind 发布的 Gemma3-4B 在计算效率、任务适应性和多模态能力之间取得了良好平衡,相较于 1B 版本,它提供了更强的文本理解能力,并新增了视觉模块支持,使其适用于更广泛的任务场景。同时,相较于 12B 和 27B 版本,4B 版本在推理效率和资源占用上具备显著优势,适合在云端和本地 GPU 设备上运行。
这一版本的发布,进一步丰富了 Google 开源 AI 模型生态,使得开发者可以根据应用需求,灵活选择不同规模的模型进行部署和优化。
关注DataLearnerAI微信公众号,接受最新大模型资讯