摘要: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 摘要 我们引入了一个新的叫做bert的语言表示模型,它用transformer的双向编码器表示。与最近的语言表示模型不同,BERT通过在所 阅读全文
posted @ 2020-01-05 16:07 成长中的菜鸟zhy 阅读(964) 评论(0) 推荐(0) 编辑