会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
澳大利亚树袋熊
博客园
首页
新随笔
联系
订阅
管理
2023年4月12日
seq2seq中的注意力机制
摘要: seq2seq中的注意力机制解决了长期梯度消失的问题,LSTM只解决了一部分长短期问题。 transformer中采用的自注意力机制多少借鉴该方法,其最核心的公式如下图所示。 Attention机制详解(一)——Seq2Seq中的Attention - 知乎 (zhihu.com) Q、K、V分别代
阅读全文
posted @ 2023-04-12 17:33 澳大利亚树袋熊
阅读(134)
评论(0)
推荐(0)
公告