摘要: 1. Introduction Transformer 是2017年论文 “Attention Is All You Need” 中提出的 seq2seq 模型,该模型最大的贡献是舍弃了过去 seq2seq 模型中大量使用的RNN(包括LSTM和GRU),而是完全基于 attention 机制,使 阅读全文
posted @ 2020-08-25 11:42 滑天下之大j 阅读(490) 评论(0) 推荐(0)