Gemma 2B
- Gemma 2B
模型详细情况和参数
- 模型全称
- Gemma 2B
- 模型简称
- Gemma 2B
- 模型类型
- 基础大模型
- 发布日期
- 2024-02-21
- 预训练文件大小
-
4GB
- 是否支持中文(中文优化)
-
是
- 最高支持的上下文长度
-
2K
- 模型参数数量(亿)
- 20.0
- 模型GitHub链接
-
暂无
- 基础模型
-
无基础模型
Gemma 2B 简介
谷歌开源的20亿参数的大语言模型。
欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送
Gemma 2B所属的领域
Gemma 2B相关的任务