摘要:
一、BERT介绍 论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 简介:BERT是基于Transformer的深度双向语言表征模型,基本结构如图所示,本质上是利用Transform 阅读全文
posted @ 2019-10-07 01:04
nxf_rabbit75
阅读(2315)
评论(0)
推荐(2)
浙公网安备 33010602011771号