会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
【B站:水论文的程序猿】
道阻且长,与君共勉
首页
新随笔
联系
管理
2022年7月24日
1001 Attention 和 Self-Attention 的区别(还不能区分我就真的无能为力了)
摘要: 通过 pytorch 去构建一个 transformer 的框架 不是导包,不是调包侠 注意力机制是一个很宽泛(宏大)的一个概念,QKV 相乘就是注意力,但是他没有规定 QKV是怎么来的 通过一个查询变量 Q,去找到 V 里面比较重要的东西 假设 K==V,然后 QK 相乘求相似度A,然后 AV 相
阅读全文
posted @ 2022-07-24 10:42 B站-水论文的程序猿
阅读(6595)
评论(0)
推荐(0)
公告