摘要: 一、背景 自从Attention机制在提出之后,加入Attention的Seq2Seq模型在各个任务上都有了提升,所以现在的seq2seq模型指的都是结合rnn和attention的模型。传统的基于RNN的Seq2Seq模型难以处理长序列的句子,无法实现并行,并且面临对齐的问题。 所以之后这类模型的 阅读全文
posted @ 2018-12-13 15:01 光彩照人 阅读(3908) 评论(0) 推荐(0)