会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
cqut-zhoutao
博客园
首页
新随笔
联系
订阅
管理
2024年3月1日
注意力机制
摘要: 个人学习使用,侵权删 为什么Transformer 需要进行 Multi-head Attention? - 月来客栈的回答 - 知乎 注意力机制(Attention) transformer中为什么使用不同的K 和 Q, 为什么不能使用同一个值?
阅读全文
posted @ 2024-03-01 13:38 zhou-snaker
阅读(16)
评论(0)
推荐(0)