摘要:
RNN,LSTM,GRU都是序列学习的基本构建,GRU是对LSTM的简化,一般而言效果不如LSTM 在翻译这种场景下,seq2seq,也就是encoder-decoder的模式,encoder输出一个向量C作为decoder的输入 在sequence比较长的时间丢失信息严重,因此attention做 阅读全文
posted @ 2018-01-12 15:25
Painmoth.Lee
阅读(123)
评论(0)
推荐(0)
浙公网安备 33010602011771号