Re

RedPajama INCITE 7B V0.1

基础大模型

RedPajama INCITE 7B V0.1

发布时间: 2023-05-05

模型参数(Parameters)
70.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-05-05

模型预文件大小

13.8GB

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

RedPajama INCITE 7B V0.1模型在各大评测榜单的评分

发布机构

模型介绍

RedPajama INCITE 7B是TOGETHER发布的一系列语言模型中的一类,与RedPajama INCITE 3B同一天发布。不过参数规模70亿。


RedPajama INCITE 3B模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/RedPajama-INCITE-3B 


RedPajama INCITE 7B V0.1系列模型简介

RedPajama INCITE 3B系列模型类似,RedPajama INCITE 7B也包含3个版本:

模型名称模型类型参数大小(亿)
RedPajama-INCITE-Base-7B-v0.1语言模型70
RedPajama-INCITE-Chat-7B-v0.1Chat微调70
RedPajama-INCITE-Instruct-7B-v0.1指令微调70


这三个版本的差异:

RedPajama-INCITE-Base-7B-v0.1:70亿规模的基础版本语言模型

RedPajama-INCITE-Chat-7B-v0.1:基于Chat数据集微调

RedPajama-INCITE-Instruct-7B-v0.1:基于指令数据微调


不过可以看到,本次模型的版本是v0.1,与3B模型的v1差异就是7B系列模型仍然在训练中,目前已经达到8000亿tokens的训练。由于TOGETHER官方看到训练损失仍在持续下降。因此,他们将继续训练,直到达到1万亿tokens。尽管如此,这个预训练结果非常有用,并且可以帮助社区更好地理解训练过程。因此,官方发布了三个中间检查点作为最终模型的“预览”。


RedPajama INCITE 7B V0.1系列模型评估结果

这些checkpoints都是根据Apache 2.0许可证发布的。即使在8000亿个tokens训练上,已经看到了令人兴奋的结果。在HELM上,基础模型的表现优于GPT-J和Pythia-6.9B等开放模型0.5-2.2个点,而在EleutherAI的lm-evaluation-harness上,它平均优于这些模型1-3个点。


此外,与LLaMA 7B相比,仍存在质量差距 - 目前在HELM上为4.3个点。对于少样本应用(例如HELM中的应用),调整指令的模型(RedPajama-INCITE-Instruct-7B-v0.1)在基础模型上有显着改进。官方希望在进行更多迭代训练后,一些差距可以被缩小。


Few-Shot得分结果:

模型TypeHELM (16个核心场景平均得分)
GPT-JBase model0.417
Pythia-6.9BBase model0.400
Llama-7BBase model0.465
RedPajama-INCITE-Base-7B-v0.1Base model0.422
RedPajama-INCITE-Instruct-7B-v0.1Instruction-tuned0.499



Zero-shot得分结果:

模型Lambada_openai
(acc)
Hellaswag
(acc_norm)
Winogrande
(acc)
Piqa (acc)average
GPT-J0.66990.66630.65030.75650.6857
Pythia-6.9B0.67120.63890.60690.75190.6672
Pythia-6.9B-dedup0.68930.65880.62660.75780.6831
Llama-7B0.7360*0.7620*0.70400.78100.7457
RedPajama-INCITE-Base-7B-v0.10.70610.69510.65190.76110.7035



关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat