Qw

Qwen1.5-110B

基础大模型

Qwen1.5-110B

发布时间: 2024-04-25

模型参数(Parameters)
1100.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

32K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2024-04-25

模型预文件大小

220GB

开源和体验地址

代码开源状态
预训练权重开源
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Qwen1.5-110B模型在各大评测榜单的评分

发布机构

模型介绍

简介

  • Qwen1.5-110B 是Qwen1.5系列的第一个超过1100亿参数的模型。
  • 它在基准测试和聊天机器人领域展示了卓越的性能。
  • 与Meta-Llama3-70B模型相比,在基础模型评估中具有可比性的性能,在聊天评估中表现突出,包括MT-Bench和AlpacaEval 2.0。

模型特点

  • 架构:与Qwen1.5系列的其他模型相似,采用相同的Transformer解码器架构。
  • 效率:包含分组查询注意力(Grouped Query Attention, GQA),在模型服务中效率较高。
  • 上下文长度:支持32K个token的上下文长度。
  • 多语言支持:模型是多语言的,支持包括英语、中文、法语、西班牙语、德语、俄语、韩语、日语、越南语、阿拉伯语等在内的多种语言。

模型质量

  • 进行了一系列的基础语言模型评估,并与Meta-Llama3-70B和Mixtral-8x22B进行了比较。
  • 在MMLU、TheoremQA、GPQA、Hellaswag、BBH、ARC-C、GSM8K、MATH、HumanEval和MBPP等多个基准测试中,Qwen1.5-110B至少与Llama-3-70B模型在基础能力上具有竞争力。
模型Qwen1.5-110BQwen1.5-72BLlama-3-70BMixtral-8x22B
MMLU80.477.579.577.8
TheoremQA34.929.332.035.9
GPQA35.936.336.434.3
Hellaswag87.586.088.088.7
BBH74.865.576.669.2
ARC-C69.665.968.870.7
GSM8K85.479.579.278.6
MATH49.634.141.041.7
HumanEval52.441.545.745.1
MBPP58.153.455.171.2
  • 性能提升主要来自于模型大小的增加,而不是预训练和后训练方法的大幅改变。

聊天模型测试

  • 在MT-Bench和AlpacaEval 2.0两个聊天模型基准测试中,110B模型的表现显著优于之前发布的72B模型。
  • 这表明更强大、更大型的基础语言模型可以带来更好的聊天模型,即使后训练方法没有太大变化。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat