Qw

Qwen-7B-Chat

基础大模型

Qwen-7B-Chat

发布时间: 2023-08-03

模型参数(Parameters)
70.0
最高上下文长度(Context Length)
8K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

8K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2023-08-03

模型预文件大小

15.4GB

开源和体验地址

代码开源状态
预训练权重开源
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Qwen-7B-Chat模型在各大评测榜单的评分

发布机构

模型介绍

通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。


Qwen-7B-Chat是在在Qwen-7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen-7B-Chat。


通义千问的评测效果也很好,超过了LLaMA2:


ModelMMLUC-EvalGSM8KHumanEvalWMT22 (en-zh)
LLaMA-7B35.1-11.010.58.7
LLaMA 2-7B45.3-14.612.817.9
Baichuan-7B42.342.89.79.226.6
ChatGLM2-6B47.951.732.49.2-
InternLM-7B51.052.831.210.414.8
Baichuan-13B51.653.626.612.830.0
LLaMA-13B46.935.517.815.812.0
LLaMA 2-13B54.8-28.718.324.2
ChatGLM2-12B56.261.640.9--
Qwen-7B56.759.651.624.430.6


从上图的评测中可以看到,阿里通义千问在MMLU得分第一,超过了LLaMA2系列模型,而其他方面的得分也很高。最重要的是这个模型中文支持良好,开源免费商用!


Qwen-7B-Chat版本的基础模型是Qwen-7B,模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/Qwen-7B 

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat