Qwen2-1.5B - Qwen2-1.5B

模型详细情况和参数

Qwen2-1.5B

模型全称
Qwen2-1.5B
模型简称
Qwen2-1.5B
模型类型
基础大模型
发布日期
2024-06-07
预训练文件大小
3.09GB
是否支持中文(中文优化)
最高支持的上下文长度
32K
模型参数数量(亿)
15.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
Apache 2.0 - 免费商用授权
模型GitHub链接
https://github.com/QwenLM/Qwen2
模型HuggingFace链接
https://huggingface.co/Qwen/Qwen2-1.5B
官方博客论文
Hello Qwen2
基础模型
无基础模型
发布机构

Qwen2-1.5B 简介

阿里巴巴开源的15亿参数规模的大语言模型,是小规模参数语言模型中表现最强的一个。与其它小规模参数模型相比,该模型在不同评测结果上都取得了非常好的结果。下图是该模型与其它模型的对比结果:


DatasetsPhi-2Gemma-2BMiniCPMQwen1.5-1.8BQwen2-0.5BQwen2-1.5B
#Non-Emb Params2.5B2.0B2.4B1.3B0.35B1.3B
MMLU52.742.353.546.845.456.5
MMLU-Pro-15.9--14.721.8
Theorem QA----8.915.0
HumanEval47.622.050.020.122.031.1
MBPP55.029.247.318.022.037.4
GSM8K57.217.753.838.436.558.5
MATH3.511.810.210.110.721.7
BBH43.435.236.924.228.437.2
HellaSwag73.171.468.361.449.366.6
Winogrande74.466.8-60.356.866.2
ARC-C61.148.5-37.931.543.9
TruthfulQA44.533.1-39.439.745.9
C-Eval23.428.051.159.758.270.6
CMMLU24.2-51.157.855.170.3


欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Qwen2-1.5B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Qwen2-1.5B相关的任务
问答系统

问答系统

Question Answering

35个资源