Ge

Gemma 1.1-2B-IT

聊天大模型

Gemma 1.1-2B - Instruct

发布时间: 2024-04-06

模型参数(Parameters)
20.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

聊天大模型

发布时间

2024-04-06

模型预文件大小

4GB

开源和体验地址

代码开源状态
预训练权重开源
Gemma Terms of Use - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Gemma 1.1-2B-IT模型在各大评测榜单的评分

发布机构

模型介绍

Gemma 1.1-2B - Instruct是Google开源的20亿参数规模的大语言模型,是Gemma-2B模型的小幅升级的版本。Gemma系列包含2个不同参数规模的版本,分别是70亿的Gemma-7B和20亿参数的Gemma-2B。


关于Gemma系列模型的介绍参考: 重磅!谷歌开源Gemini同源技术大模型Gemma,分别为70亿参数和20亿参数,同等规模参数评测极其优秀! 


Gemma 1.1-2B是Gemma-2B模型的升级版本,使用了基于人类反馈的强化学习(RLHF)对齐训练:

Gemma 1.1 采用新颖的 RLHF 方法进行训练,在质量、编码能力、事实性、指令遵循和多轮对话质量等方面都有大幅提高。我们还修复了多轮对话中的一个错误,并确保模型的回答不会总是以 "当然 "开头。


Google发布了3个版本的Gemma-1.1-2B模型,分别是指令优化的原始版本、基于PyTorch实现的版本以及1个量化版本:

Gemma-1.1-2B版本版本简介HugggingFace下载地址
Gemma-1.1-2B-IT指令优化版本,transformers库实现 https://huggingface.co/google/gemma-1.1-2b-it 
Gemma-1.1-2B-IT-PyTorchPyTorch实现的版本 https://huggingface.co/google/gemma-1.1-2b-it-pytorch 
Gemma-1.1-2B-IT-GGUFGGUF量化版本 https://huggingface.co/google/gemma-1.1-2b-it-GGUF 


关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat