摘要:
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 摘要 我们引入了一个新的叫做bert的语言表示模型,它用transformer的双向编码器表示。与最近的语言表示模型不同,BERT通过在所 阅读全文
posted @ 2020-01-05 16:07
成长中的菜鸟zhy
阅读(1605)
评论(0)
推荐(0)

浙公网安备 33010602011771号