模型全称
Generative Pre-trained Transformer 3
发布组织
OpenAI
模型大小
类型
自然语言处理
发布论文
Language Models are Few-Shot Learners
模型简介
GPT-3是一个自回归语言模型,目的是为了使用深度学习分类或产生人类可以理解的自然语言。GPT-3是由在旧金山的人工智能公司OpenAI训练与开发,模型设计基于谷歌开发的变换语言模型。GPT-3的神经网络包含1750亿个神经,为全世界参数最多的神经网络模型。