摘要: [TOC] 前言 之前已经提到过好几次Attention的应用,但还未对Attention机制进行系统的介绍,这里对attention机制做一个概述,免得之后看阅读理解论文的时候被花式Attention弄的晕头转向。 Seq2Seq 注意力机制(Attention Mechanism)首先是用于解决 阅读全文
posted @ 2019-10-22 16:01 西多士NLP 阅读(2180) 评论(0) 推荐(0) 编辑