Tu

Turing-NLG

基础大模型

Turing Natural Language Generation

发布时间: 2020-02-13

模型参数(Parameters)
170.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2020-02-13

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Turing-NLG模型在各大评测榜单的评分

发布机构

模型介绍

T-NLG是一种基于Transformer的生成式语言模型,它可以生成单词以完成开放式文本任务。除了完成未完成的句子,它还可以生成直接回答问题和输入文档摘要。

生成式模型如T-NLG在NLP任务中非常重要,因为我们的目标是在任何情况下像人类一样直接、准确和流畅地回答。以前,问答和摘要系统依靠从文档中提取已有内容,作为替代答案或摘要,但它们经常显得不自然或不连贯。有了T-NLG,我们可以自然地摘要或回答有关个人文档或电子邮件线程的问题。

我们观察到,模型越大、预训练数据越多样化和全面,它在泛化到多个下游任务时表现越好,即使有更少的训练示例。因此,我们认为训练一个大型集中的多任务模型并共享其能力跨多个任务比为每个任务单独训练一个新模型更有效率。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat