摘要:
一、结构 由于输入与输出长度很多时候是不等长的,先回顾一下Seq2Seq的结构 这种结构在负担集中在c身上,在句子较长时比较不好。例如在机器翻译中,考虑到每个输出的词,都跟所有输入的词有关,但有的关系大,有的关系小,于是有下面的结构: 合起来的总结构就是: 二、为什么不直接对输入x使用attenti 阅读全文
posted @ 2018-05-21 13:33
弥漫的幻雪
阅读(579)
评论(0)
推荐(0)
2018年5月21日