Turing-NLG
Turing Natural Language Generation
模型参数
170.0
上下文长度
2K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2020-02-13
模型文件大小
暂无数据
推理模式
暂无模式数据
开源和体验地址
代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
官方介绍与博客
官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
Microsoft
查看发布机构详情 模型解读
T-NLG是一种基于Transformer的生成式语言模型,它可以生成单词以完成开放式文本任务。除了完成未完成的句子,它还可以生成直接回答问题和输入文档摘要。
生成式模型如T-NLG在NLP任务中非常重要,因为我们的目标是在任何情况下像人类一样直接、准确和流畅地回答。以前,问答和摘要系统依靠从文档中提取已有内容,作为替代答案或摘要,但它们经常显得不自然或不连贯。有了T-NLG,我们可以自然地摘要或回答有关个人文档或电子邮件线程的问题。
我们观察到,模型越大、预训练数据越多样化和全面,它在泛化到多个下游任务时表现越好,即使有更少的训练示例。因此,我们认为训练一个大型集中的多任务模型并共享其能力跨多个任务比为每个任务单独训练一个新模型更有效率。