这个案例集合主要收集了不同的BERT的使用方法。BERT是谷歌提出的一种非常优秀的预训练模型,它是一种Transformer结构,在很多自然语言处理任务中都打破了当时的记录。
这个博客介绍的是使用BERT做多标签分类的方法。这里主要解决的问题是Kaggle比赛中的恶意评论划分的为(Toxic Comment Classification)
案例来自 medium.com
添加时间 2019/06/08 14:12:05
这里是知乎的一篇专栏,主要介绍了几十篇关于使用BERT完成其他任务的思路。包括问答系统(QA)、信息检索(IR)、文本摘要(AS)等。
案例来自 zhuanlan.zhihu.com
添加时间 2019/06/10 09:24:54