会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
AkagawaTsurunaki
博客园
首页
新随笔
联系
订阅
管理
2024年10月22日
Scaled Dot-Product Attention 的公式中为什么要除以 $\sqrt{d_k}$?
摘要: Scaled Dot-Product Attention 的公式中为什么要除以 \(\sqrt{d_k}\)? 在学习 Scaled Dot-Product Attention 的过程中,遇到了如下公式 \[ \mathrm{Attention} (\mathbf{Q}, \mathbf{K}, \
阅读全文
posted @ 2024-10-22 18:05 赤川鹤鸣
阅读(148)
评论(0)
推荐(0)
公告