会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
晓飞的算法工程笔记
博客园
首页
新随笔
联系
管理
订阅
2020年3月30日
ICLR 2020 | 抛开卷积,multi-head self-attention能够表达任何卷积操作
摘要: 近年来很多研究将nlp中的attention机制融入到视觉的研究中,得到很不错的结果,于是,论文侧重于从理论和实验去验证self attention可以代替卷积网络独立进行类似卷积的操作,给self attention在图像领域的应用奠定基础 论文: On the Relationship betw
阅读全文
posted @ 2020-03-30 11:45 晓飞的算法工程笔记
阅读(2688)
评论(1)
推荐(0)
公告