会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
面朝大海
博客园
首页
新随笔
管理
2021年12月18日
注意力机制
摘要: 传统的编码-解码机制 attention和self-attention 的区别 具体计算过程是一样的 计算对象不同,attention是source对target的attention,而self attention 是source 对source的attention。 attention用于Seq2
阅读全文
posted @ 2021-12-18 19:07 _无支祁
阅读(575)
评论(0)
推荐(0)
公告