会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
指间的执着
博客园
首页
新随笔
联系
订阅
管理
06 2025 档案
Attention研究
摘要:一、背景介绍 正好在工作中需要用到 Attention 来提升模型的去噪效果,因此进行了一些研究。整理了一下自己的理解过程。 CNN有归纳偏置(inductive bias),即:Locality(局部相关性)和Spatial Invariance(空间不变性),而Self-Attention 没有
阅读全文
posted @
2025-06-05 10:41
指间的执着
阅读(56)
评论(0)
推荐(0)
公告