摘要: 1.Transformer Google于2017年6月发布在arxiv上的一篇文章《Attention is all you need》,提出解决sequence to sequence问题的transformer模型,用全attention的结构代替了lstm,抛弃了之前传统的encoder-d 阅读全文
posted @ 2020-05-02 11:16 雨后观山色 阅读(1177) 评论(0) 推荐(0)