摘要: 传统的编码-解码机制 attention和self-attention 的区别 具体计算过程是一样的 计算对象不同,attention是source对target的attention,而self attention 是source 对source的attention。 attention用于Seq2 阅读全文
posted @ 2021-12-18 19:07 _无支祁 阅读(575) 评论(0) 推荐(0)