会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
xle97
博客园
首页
新随笔
联系
订阅
管理
2023年10月7日
from_rnn_2_transformer-cnblog
摘要: 从RNN到Transformer 各式各样的“attention” 不管是在CV领域还是NLP领域, attention实质上就是一种取权重求和的过程。使得网络focus在其应该focus的地方。 根据Attention的计算区域,可以分成以下几种: 1)Soft Attention,这是比较常见的
阅读全文
posted @ 2023-10-07 18:41 xle97
阅读(134)
评论(0)
推荐(0)