DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表BERT
BE

BERT

Bidirectional Encoder Representations from Transformers

发布时间: 2018-10-11更新于: 2023-05-28 18:51:44.623550
在线体验GitHubHugging FaceCompare
模型参数
3.4亿
上下文长度
2K
中文支持
不支持
推理能力

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

BERT

模型基本信息

推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2018-10-11
模型文件大小
1.3GB
MoE架构
否
总参数 / 激活参数
3.4 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
BERT

开源和体验地址

代码开源状态
Apache 2.0
预训练权重开源
Apache 2.0- 免费商用授权
GitHub 源码
https://github.com/google-research/bert
Hugging Face
https://huggingface.co/docs/transformers/model_doc/bert
在线体验
暂无在线体验地址
BERT

官方介绍与博客

官方论文
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
DataLearnerAI博客
暂无介绍博客
BERT

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
BERT

评测得分

当前尚无可展示的评测数据。
BERT

发布机构

Google Research
Google Research
查看发布机构详情
Bidirectional Encoder Representations from Transformers

模型解读

BERT (Bidirectional Encoder Representations from Transformers) 是一种基于深度学习的预训练模型,由Google在2018年发布。它是一种自然语言处理模型,用于将自然语言转换成机器可读的形式,例如对话系统、语音识别、文本分类、语言翻译、命名实体识别等。

BERT的主要贡献是在自然语言处理领域引入了预训练技术。传统的机器学习模型需要手动提取特征,而BERT不需要这样做。BERT使用Transformer网络架构,通过无监督的方式从海量文本数据中学习出通用的语言表示,可以应用于各种NLP任务。

BERT的训练分为两个阶段:预训练和微调。预训练阶段使用无标注的语料库,将模型训练成一个通用的语言表示模型。微调阶段则针对特定的任务使用标注数据进行微调。

BERT在许多NLP任务上取得了很好的效果,包括问答、文本分类、语言翻译等。其主要的优势是可以充分利用大量的无标注数据进行预训练,从而得到更好的通用表示。同时,BERT还采用了双向编码器,可以充分考虑上下文信息,使得模型在处理长文本时更为有效。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码