DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
页面导航
大模型列表RedPajama INCITE 7B V0.1
RE

RedPajama INCITE 7B V0.1

基础大模型

RedPajama INCITE 7B V0.1

发布时间: 2023-05-05更新于: 2023-05-07 18:50:09.247484
在线体验GitHubHugging FaceCompare
模型参数
70亿
上下文长度
2K
中文支持
不支持
推理能力

RedPajama INCITE 7B V0.1 是由 TOGETHER 发布的 AI 模型,发布时间为 2023-05-05,定位为 基础大模型,参数规模约为 70.0B,上下文长度为 2K,模型文件大小约 13.8GB。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

RedPajama INCITE 7B V0.1

模型基本信息

推理过程
不支持
思考模式
不支持思考模式
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2023-05-05
模型文件大小
13.8GB
MoE架构
否
总参数 / 激活参数
70 亿 / 不涉及
知识截止
暂无数据
RedPajama INCITE 7B V0.1

开源和体验地址

代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
https://github.com/togethercomputer
Hugging Face
https://huggingface.co/togethercomputer/RedPajama-INCITE-Base-7B-v0.1
在线体验
暂无在线体验地址
RedPajama INCITE 7B V0.1

官方介绍与博客

官方论文
Releasing 3B and 7B RedPajama-INCITE family of models including base, instruction-tuned & chat models
DataLearnerAI博客
暂无介绍博客
RedPajama INCITE 7B V0.1

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
RedPajama INCITE 7B V0.1

评测结果

当前尚无可展示的评测数据。

和其他模型对比

暂时没有为该模型整理的相关对比页面。

想自定义其他组合?打开对比工具

RedPajama INCITE 7B V0.1

发布机构

TOGETHER
TOGETHER
查看发布机构详情
RedPajama INCITE 7B V0.1

模型解读

RedPajama INCITE 7B是TOGETHER发布的一系列语言模型中的一类,与RedPajama INCITE 3B同一天发布。不过参数规模70亿。


RedPajama INCITE 3B模型信息卡: https://www.datalearner.com/ai-models/pretrained-models/RedPajama-INCITE-3B 


RedPajama INCITE 7B V0.1系列模型简介

与RedPajama INCITE 3B系列模型类似,RedPajama INCITE 7B也包含3个版本:

模型名称模型类型参数大小(亿)
RedPajama-INCITE-Base-7B-v0.1语言模型70
RedPajama-INCITE-Chat-7B-v0.1Chat微调70
RedPajama-INCITE-Instruct-7B-v0.1指令微调70


这三个版本的差异:

RedPajama-INCITE-Base-7B-v0.1:70亿规模的基础版本语言模型

RedPajama-INCITE-Chat-7B-v0.1:基于Chat数据集微调

RedPajama-INCITE-Instruct-7B-v0.1:基于指令数据微调


不过可以看到,本次模型的版本是v0.1,与3B模型的v1差异就是7B系列模型仍然在训练中,目前已经达到8000亿tokens的训练。由于TOGETHER官方看到训练损失仍在持续下降。因此,他们将继续训练,直到达到1万亿tokens。尽管如此,这个预训练结果非常有用,并且可以帮助社区更好地理解训练过程。因此,官方发布了三个中间检查点作为最终模型的“预览”。


RedPajama INCITE 7B V0.1系列模型评估结果

这些checkpoints都是根据Apache 2.0许可证发布的。即使在8000亿个tokens训练上,已经看到了令人兴奋的结果。在HELM上,基础模型的表现优于GPT-J和Pythia-6.9B等开放模型0.5-2.2个点,而在EleutherAI的lm-evaluation-harness上,它平均优于这些模型1-3个点。


此外,与LLaMA 7B相比,仍存在质量差距 - 目前在HELM上为4.3个点。对于少样本应用(例如HELM中的应用),调整指令的模型(RedPajama-INCITE-Instruct-7B-v0.1)在基础模型上有显着改进。官方希望在进行更多迭代训练后,一些差距可以被缩小。


Few-Shot得分结果:

模型TypeHELM (16个核心场景平均得分)
GPT-JBase model0.417
Pythia-6.9BBase model0.400
Llama-7BBase model0.465
RedPajama-INCITE-Base-7B-v0.1Base model0.422
RedPajama-INCITE-Instruct-7B-v0.1Instruction-tuned0.499



Zero-shot得分结果:

模型Lambada_openai
(acc)
Hellaswag
(acc_norm)
Winogrande
(acc)
Piqa (acc)average
GPT-J0.66990.66630.65030.75650.6857
Pythia-6.9B0.67120.63890.60690.75190.6672
Pythia-6.9B-dedup0.68930.65880.62660.75780.6831
Llama-7B0.7360*0.7620*0.70400.78100.7457
RedPajama-INCITE-Base-7B-v0.10.70610.69510.65190.76110.7035



DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码