Qwen1.5-110B
- Qwen1.5-110B
模型详细情况和参数
- 模型全称
- Qwen1.5-110B
- 模型简称
- Qwen1.5-110B
- 模型类型
- 基础大模型
- 发布日期
- 2024-04-25
- 预训练文件大小
-
220GB
- 是否支持中文(中文优化)
-
是
- 最高支持的上下文长度
-
32K
- 模型参数数量(亿)
- 1100.0
- 在线演示地址
-
暂无
- 基础模型
-
无基础模型
Qwen1.5-110B 简介
简介
- Qwen1.5-110B 是Qwen1.5系列的第一个超过1100亿参数的模型。
- 它在基准测试和聊天机器人领域展示了卓越的性能。
- 与Meta-Llama3-70B模型相比,在基础模型评估中具有可比性的性能,在聊天评估中表现突出,包括MT-Bench和AlpacaEval 2.0。
模型特点
- 架构:与Qwen1.5系列的其他模型相似,采用相同的Transformer解码器架构。
- 效率:包含分组查询注意力(Grouped Query Attention, GQA),在模型服务中效率较高。
- 上下文长度:支持32K个token的上下文长度。
- 多语言支持:模型是多语言的,支持包括英语、中文、法语、西班牙语、德语、俄语、韩语、日语、越南语、阿拉伯语等在内的多种语言。
模型质量
- 进行了一系列的基础语言模型评估,并与Meta-Llama3-70B和Mixtral-8x22B进行了比较。
- 在MMLU、TheoremQA、GPQA、Hellaswag、BBH、ARC-C、GSM8K、MATH、HumanEval和MBPP等多个基准测试中,Qwen1.5-110B至少与Llama-3-70B模型在基础能力上具有竞争力。
模型 | Qwen1.5-110B | Qwen1.5-72B | Llama-3-70B | Mixtral-8x22B |
---|
MMLU | 80.4 | 77.5 | 79.5 | 77.8 |
TheoremQA | 34.9 | 29.3 | 32.0 | 35.9 |
GPQA | 35.9 | 36.3 | 36.4 | 34.3 |
Hellaswag | 87.5 | 86.0 | 88.0 | 88.7 |
BBH | 74.8 | 65.5 | 76.6 | 69.2 |
ARC-C | 69.6 | 65.9 | 68.8 | 70.7 |
GSM8K | 85.4 | 79.5 | 79.2 | 78.6 |
MATH | 49.6 | 34.1 | 41.0 | 41.7 |
HumanEval | 52.4 | 41.5 | 45.7 | 45.1 |
MBPP | 58.1 | 53.4 | 55.1 | 71.2 |
- 性能提升主要来自于模型大小的增加,而不是预训练和后训练方法的大幅改变。
聊天模型测试
- 在MT-Bench和AlpacaEval 2.0两个聊天模型基准测试中,110B模型的表现显著优于之前发布的72B模型。
- 这表明更强大、更大型的基础语言模型可以带来更好的聊天模型,即使后训练方法没有太大变化。
欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送
Qwen1.5-110B所属的领域
Natural Language Process
35个资源
Qwen1.5-110B相关的任务