摘要: 一、BERT介绍 论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 简介:BERT是基于Transformer的深度双向语言表征模型,基本结构如图所示,本质上是利用Transform 阅读全文
posted @ 2019-10-07 01:04 nxf_rabbit75 阅读(2315) 评论(0) 推荐(2)