会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Siena_Chen
博客园
首页
新随笔
联系
订阅
管理
2020年10月8日
Self-Attention GAN学习笔记
摘要: Self-Attention GAN Motivation 以往的模型都严重依赖卷积来建模不同区域之间的依赖关系。然而卷积核的大小是有限的,每次卷积操作只能够覆盖像素点周围很小的一块领域。对于一些距离比较远的特征,要捕获到这些特征,就需要多次卷积,计算效率较低;其次,现有的一些优化算法可能无法发现仔
阅读全文
posted @ 2020-10-08 16:25 Siena_Chen
阅读(828)
评论(0)
推荐(0)
公告