模型详细情况和参数
MPT-7B-Instruct是MPT-7B系列模型中针对指令优化的模型。MPT是由MosaicML推出的transformer系列大模型,其中7B是指67亿参数规模,MPT全称MosaicML Pretrained Transformer。
MPT系列模型介绍: https://www.datalearner.com/ai-models/foundation-models/MPT
MPT-7B-Instruct是基于MPT-7B-Base进行指令微调得到的模型。其微调数据集源自Databricks Dolly-15k和Anthropic的HH数据集(HH表示Helpful and Harmless)。这两个数据集相关的链接如下:
数据集名称 | 发布者 | 数据集链接 |
---|---|---|
Dolly-15k | Databricks | https://huggingface.co/datasets/databricks/databricks-dolly-15k |
HH数据集 | Anthropic | https://huggingface.co/datasets/Anthropic/hh-rlhf |
MPT-7B-Base模型本身是基于MosaicML机器学习团队收集的1万亿tokens文本和代码数据集训练的。经过上述两类指令数据集微调之后,MPT-7B-Instruct对指令的识别比原始模型要好很多。