GP

GPT-Neo

基础大模型

GPT-Neo

发布时间: 2021-03-22

模型参数(Parameters)
27.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2021-03-22

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
MIT License - 免费商用授权
GitHub 源码
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

GPT-Neo模型在各大评测榜单的评分

发布机构

模型介绍

GPT-Neo是一个由EleutherAI开发的最先进的语言模型。EleutherAI是一个独立的研究组织,致力于创建开源人工智能模型。GPT-Neo基于OpenAI的GPT系列语言模型的架构,但是采用了分散、社区驱动的方法进行训练。

GPT-Neo模型因其巨大的规模和在各种自然语言处理任务中出色的表现而备受关注。该模型的最大版本,GPT-Neo 2.7B,有27亿个参数,目前是存在的最大语言模型之一。它是在多样化的互联网文本数据上进行训练的,包括书籍、文章和网页,并且已经被证明在广泛的自然语言处理任务上表现良好,如语言生成、摘要和问答。

GPT-Neo项目的一个独特之处在于其强调开源开发和社区参与。EleutherAI公开了该模型的训练权重,使其他研究人员和开发人员能够使用和构建该模型。这导致了许多有趣的应用和GPT-Neo模型的扩展,包括对特定任务的微调和修改,以提高其在某些类型的数据上的效率或准确性。

总的来说,GPT-Neo代表了自然语言处理领域的一个令人兴奋的发展,其开源的本质使其成为全球研究人员和开发人员的宝贵资源。

Foundation Model

GPT-Neo(X)

GPT-Neo(X)

View Details

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat
Back to Top