模型详细情况和参数
OpenAssistant-Pythia是OpenAssistant系列中基于Pythia模型微调得到的结果。
Pythia是由EleutherAI开源的一组大模型(Pythia模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/Pythia )。
目前,OpenAssistant基于Pythia微调的模型分为两类:一类是基于有监督学习微调的模型,名字带有sft,一类是基于奖励模型的微调,名字带有rm
模型名称 | 参数大小 | 说明 |
---|---|---|
oasst-sft-1-pythia-12b | 120亿 | 这是Open-Assistant项目的第一次迭代英语监督微调(supervised-fine-tuning,SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月7日之前通过https://open-assistant.io/人工反馈Web应用程序收集的约22,000个助手对话人类演示进行微调。 |
oasst-sft-4-pythia-12b-epoch-3.5 | 120亿 | 这是Open-Assistant项目的第四次迭代英语监督微调(SFT)模型。它基于一个Pythia 12B模型,该模型在2023年3月25日之前通过https://open-assistant.io/人工反馈Web应用程序收集的助手对话人类演示进行了微调。 |
oasst-rm-2.1-pythia-1.4b-epoch-2.5 | 14亿 | 基于pythia-1.4b-gpt4all-pretrain微调结果 |
oasst-rm-2-pythia-6.9b-epoch-1 | 69亿 | 基于pythia-6.9b-gpt4all-pretrain微调结果 |
oasst-rm-2.1-pythia-1.4b-epoch-2.5 | 14亿 | 基于pythia-1.4b-gpt4all-pretrain微调结果 |