摘要: 首先是Bert的论文和 attention is all you need的论文 然后是:将nlp预训练 迁移学习的发展从word2vec 到elmo bert https://mp.weixin.qq.com/s/Rd3-ypRYiJObi-e2JDeOjQ https://mp.weixin.q 阅读全文
posted @ 2019-03-01 15:24 Earendil 阅读(275) 评论(0) 推荐(0) 编辑