2020年7月15日

RNN注意力机制

摘要: Seq2Seq架构下,通常将源序列编码为一个固定长度的向量。使用一个固定长度的向量可能是改善这个基本encoder-decoder架构性能的瓶颈。把整个输入编码为一个固定大小的向量,然后用这个向量解码,这意味着这个向量理论上能包含原来输入的所有信息,会对encoder和decoder有更高的要求,尤 阅读全文

posted @ 2020-07-15 13:07 那抹阳光1994 阅读(558) 评论(0) 推荐(0)

导航