Py

Pythia

基础大模型

Pythia

发布时间: 2023-04-03

模型参数(Parameters)
120.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-04-03

模型预文件大小

24GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Pythia模型在各大评测榜单的评分

发布机构

模型介绍

Pythia是由EleutherAI开源的一组预训练大模型,这是一组EleutherAI用来研究模型规模与可解释性的训练模型,共包含8个。如下图所示





Pythia包含8种模型,涉及两个不同的数据集:Pile和应用了去重复的Pile。

所有8种模型大小都使用完全相同的数据以完全相同的顺序进行训练。每个模型在训练期间看到了约299,892,736,000 ~= 299.9B个标记,每2,097,152,000 ~= 2B个标记保存一次143个检查点,平均分布在整个训练过程中。这相当于非“去重”模型在Pile上不到1个epoch,而在经过去重的Pile上约为1.5个epoch(1个epoch包含207B个标记)。

用于在GPT-NeoX库中训练这些模型的配置文件可以在此存储库中的models/目录中找到。


关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat