会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
lingxingzi
博客园
首页
新随笔
联系
订阅
管理
2023年2月18日
transfomer的qkv
摘要: 笔记:交叉注意力:Q和K,V来自不同 来源:深度学习attention机制中的Q,K,V分别是从哪来的? - 知乎 https://www.zhihu.com/question/325839123/answer/2718310467
阅读全文
posted @ 2023-02-18 16:45 灵性
阅读(89)
评论(0)
推荐(0)
公告