BE

BERT

基础大模型

Bidirectional Encoder Representations from Transformers

发布时间: 2018-10-11

模型参数(Parameters)
3.4
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2018-10-11

模型预文件大小

1.3GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

BERT模型在各大评测榜单的评分

发布机构

模型介绍

BERT (Bidirectional Encoder Representations from Transformers) 是一种基于深度学习的预训练模型,由Google在2018年发布。它是一种自然语言处理模型,用于将自然语言转换成机器可读的形式,例如对话系统、语音识别、文本分类、语言翻译、命名实体识别等。

BERT的主要贡献是在自然语言处理领域引入了预训练技术。传统的机器学习模型需要手动提取特征,而BERT不需要这样做。BERT使用Transformer网络架构,通过无监督的方式从海量文本数据中学习出通用的语言表示,可以应用于各种NLP任务。

BERT的训练分为两个阶段:预训练和微调。预训练阶段使用无标注的语料库,将模型训练成一个通用的语言表示模型。微调阶段则针对特定的任务使用标注数据进行微调。

BERT在许多NLP任务上取得了很好的效果,包括问答、文本分类、语言翻译等。其主要的优势是可以充分利用大量的无标注数据进行预训练,从而得到更好的通用表示。同时,BERT还采用了双向编码器,可以充分考虑上下文信息,使得模型在处理长文本时更为有效。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat