摘要: https://github.com/google-research/bert Abstract: 我们提出...,与之前的语言表示不同的是,Bert用到左边和右边的context,用来训练双向表示。结果:预训练的Bert只需要一个额外的output layer作为 fine-tune 使用。 Be 阅读全文
posted @ 2019-02-22 10:40 hozhangel 阅读(1187) 评论(0) 推荐(0)