会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
那抹阳光1994
勤学如春起之苗,不见其增,日有所长。
2020年7月15日
RNN注意力机制
摘要: Seq2Seq架构下,通常将源序列编码为一个固定长度的向量。使用一个固定长度的向量可能是改善这个基本encoder-decoder架构性能的瓶颈。把整个输入编码为一个固定大小的向量,然后用这个向量解码,这意味着这个向量理论上能包含原来输入的所有信息,会对encoder和decoder有更高的要求,尤
阅读全文
posted @ 2020-07-15 13:07 那抹阳光1994
阅读(558)
评论(0)
推荐(0)
导航
博客园
首页
新随笔
联系
订阅
管理
公告