预训练模型详情
模型全称
GPT-NeoXT-Chat-Base-20B
模型简称
GPT-NeoXT-Chat-Base-20B
发布日期
2023-03-11
预训练文件大小
未知
模型参数数量(亿)
200
发布论文
发布机构
基础模型
GPT-NeoXT-Chat-Base-20B是基于ElutherAI的GPT-NeoX模型,并通过专注于对话式互动的数据进行微调。我们把调整的重点放在几个任务上,如问题回答、分类、提取和总结。我们用4300万条高质量指令的集合对模型进行了微调。我们与LAION和Ontocord.ai合作,他们都帮助策划了该模型所基于的数据集。