Transform详解(超详细) Attention is all you need论文
摘要:
一、背景 自从Attention机制在提出 之后,加入Attention的Seq2 Seq模型在各个任务上都有了提升,所以现在的seq2seq模型指的都是结合rnn和attention的模型。传统的基于RNN的Seq2Seq模型难以处理长序列的句子,无法实现并行,并且面临对齐的问题。 所以之后这类模 阅读全文
posted @ 2019-05-10 14:11 Vict0ry 阅读(1253) 评论(0) 推荐(0)
浙公网安备 33010602011771号