GPT-3

GPT-3 预训练模型详情

模型全称

Generative Pre-trained Transformer 3

发布组织

模型大小

类型

自然语言处理

发布论文

Language Models are Few-Shot Learners

模型简介

GPT-3是一个自回归语言模型,目的是为了使用深度学习分类或产生人类可以理解的自然语言。GPT-3是由在旧金山的人工智能公司OpenAI训练与开发,模型设计基于谷歌开发的变换语言模型。GPT-3的神经网络包含1750亿个神经,为全世界参数最多的神经网络模型。