摘要: 【符号简介】 ———————————————————————— m——编码器的隐层神经元个数 n——输入序列词向量维度 p——解码器隐层神经元个数 q——输出序列词向量维度 v——词汇表大小 ———————————————————————— 【正文开始】 我们之前遇到的较为熟悉的序列问题,主要是利用 阅读全文
posted @ 2019-12-29 23:12 甲乙丙2333 阅读(689) 评论(0) 推荐(0)
摘要: 一 :self-Attention 二:位置编码 三:模型结构 四:优缺点 这篇论文中只使用了self-Attenion和Encoder-Decoder方式,没有采用传统的CNN与RNN 。用一句比较流行的话就是大道至简。作者的实验是通过搭建编码器和解码器各6层,总共12层的Encoder-Deco 阅读全文
posted @ 2019-12-29 21:33 甲乙丙2333 阅读(375) 评论(0) 推荐(0)
摘要: 实现 阅读全文
posted @ 2019-12-29 19:23 甲乙丙2333 阅读(244) 评论(0) 推荐(0)