GP

GPT-2

基础大模型

Generative Pre-trained Transformer 2

发布时间: 2019-02-14

模型参数(Parameters)
15.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2019-02-14

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
Modified MIT License - 免费商用授权
GitHub 源码
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

GPT-2模型在各大评测榜单的评分

发布机构

模型介绍

GPT-2 (Generative Pre-trained Transformer 2)是一种基于深度神经网络的自然语言处理模型,由OpenAI公司于2019年开发。它是GPT系列第二个版本,具有15亿个参数,是一个无监督的预训练语言模型。GPT-2可以执行多种自然语言处理任务,包括文本分类、文本生成、机器翻译和对话生成等。 


GPT-2的训练基于Transformer架构,该架构是Google在2017年提出的一种新型神经网络,它在处理长文本序列时表现出色。GPT-2的预训练过程利用了互联网上大量的文本数据,包括维基百科、新闻文章、社交媒体帖子等。这使得GPT-2可以在各种语言和主题领域中生成高质量的文本。 


与其他NLP模型不同,GPT-2的最大特点是其能够生成高质量、连贯和逼真的文本。在训练过程中,模型学会了模拟大量不同文体的文本,并可以根据给定的开头自动生成相关的段落、故事、对话等内容。这种能力对于自动化写作、自动答题和对话系统等领域都非常有用。 


尽管GPT-2在NLP领域取得了巨大成功,但也存在一些争议。由于其能够生成逼真的虚假信息和误导性的内容,一些人担心它可能被滥用来产生虚假信息、恶意广告等。因此,OpenAI公司只公开了一部分的GPT-2代码和模型参数。

Foundation Model

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat