摘要:
首先是Bert的论文和 attention is all you need的论文 然后是:将nlp预训练 迁移学习的发展从word2vec 到elmo bert https://mp.weixin.qq.com/s/Rd3-ypRYiJObi-e2JDeOjQ https://mp.weixin.q 阅读全文
posted @ 2019-03-01 15:24
Earendil
阅读(281)
评论(0)
推荐(0)