摘要:
attention_mechanism = tf.contrib.seq2seq.BahdanauAttention(num_units=FLAGS.rnn_hidden_size, memory = encoder_outputs, memory_sequence_length = encoder 阅读全文
posted @ 2018-01-04 20:08
dmesg
阅读(3186)
评论(0)
推荐(0)
摘要:
multi lstm attention时序之间,inputs维度是1024,加上attention之后维度是2018,输出1024,时序之间下次再转成2048的inputs 但是如果使用multi lstm的话inputs维度是1024,加上attention之后维度是2018,输出1024,这个 阅读全文
posted @ 2018-01-04 17:11
dmesg
阅读(643)
评论(0)
推荐(0)


浙公网安备 33010602011771号