MosaicML Pretrained Transformer - 7B Instruct
发布时间: 2023-05-05
2K tokens
基础大模型
2023-05-05
13.3GB
输入不支持
输入不支持
输入不支持
输入不支持
输入不支持
输出不支持
输出不支持
输出不支持
输出不支持
输出不支持
MPT-7B-Instruct是MPT-7B系列模型中针对指令优化的模型。MPT是由MosaicML推出的transformer系列大模型,其中7B是指67亿参数规模,MPT全称MosaicML Pretrained Transformer。
MPT系列模型介绍: https://www.datalearner.com/ai-models/foundation-models/MPT
MPT-7B-Instruct是基于MPT-7B-Base进行指令微调得到的模型。其微调数据集源自Databricks Dolly-15k和Anthropic的HH数据集(HH表示Helpful and Harmless)。这两个数据集相关的链接如下:
数据集名称 | 发布者 | 数据集链接 |
---|---|---|
Dolly-15k | Databricks | https://huggingface.co/datasets/databricks/databricks-dolly-15k |
HH数据集 | Anthropic | https://huggingface.co/datasets/Anthropic/hh-rlhf |
MPT-7B-Base模型本身是基于MosaicML机器学习团队收集的1万亿tokens文本和代码数据集训练的。经过上述两类指令数据集微调之后,MPT-7B-Instruct对指令的识别比原始模型要好很多。
关注DataLearnerAI微信公众号,接受最新大模型资讯