摘要: 目前正负样本的构造和选择大部分还是采用数据增强,依赖于人的经验和直觉,可能并不是有效的,也缺少可解释性。 本文在特征层面进行data manipulation来提供更加explainable和effective的正负样本。 首先,观察训练过程中anchor/positive以及anchor/nega 阅读全文
posted @ 2021-08-26 11:17 wyboooo 阅读(279) 评论(0) 推荐(0) 编辑
摘要: CVPR21 有被后面的视觉效果惊艳到。 现在利用GAN的SR方法主要可以分为两类: 1. 利用adversarial loss。 这种情况下generator要同时捕捉自然图像的特点,又要保留gt的特征。这就限制了generator估计真实图像流型的能力,导致结果出现artifacts和不自然的纹 阅读全文
posted @ 2021-03-22 16:55 wyboooo 阅读(789) 评论(0) 推荐(0) 编辑
摘要: CVPR21 将图像超分辨率问题转化为寻找图像的连续表示。本质上图像会存在分辨率的问题,是由于其存储和表示使用的是二维数组。如果将图像的表示是一个连续函数,那么图像就可以是任意分辨率的。这个思路受启发于三维重建中的implicit neural representation implicit neu 阅读全文
posted @ 2021-03-21 19:36 wyboooo 阅读(394) 评论(0) 推荐(0) 编辑
摘要: 官网:https://gitee.com/mindspore/mindinsight/blob/r1.1/README_CN.md# 首先按照官网给出的pip方式安装,提示没有这个对应的.whl文件。所以采取下面的源码编译安装方式。 以上依赖都可以通过pip 进行安装 采用第一种方式进行安装 cd 阅读全文
posted @ 2021-03-10 19:41 wyboooo 阅读(105) 评论(0) 推荐(0) 编辑
摘要: 这篇文章思路其实很简单,主要利用卷积权重的可加性,其中的一些实验结论挺有趣的。 现在的模型存在两个问题: 模型需要过多计算资源。 定制新的结构需要大量的人力和时间。 本文作者希望,在不增加额外计算消耗的同时提升表现。 目前针对CNN结构的研究主要集中于两个方向: 层与层之间如何相互连接(简单堆叠;恒 阅读全文
posted @ 2021-03-01 19:04 wyboooo 阅读(232) 评论(0) 推荐(0) 编辑
摘要: 现在的大部分方法都通过调整网络结构,使网络具有获得更丰富表示特征的能力,如attention、AutoML、NAS。 本文提出的自校准卷积(Self-Calibrated conv),通过增强每一层卷积的能力,提升整个网络的能力。SC conv将原卷积分为多个不同的部分,由于这种异质的卷积操作和核之 阅读全文
posted @ 2021-02-23 22:14 wyboooo 阅读(240) 评论(0) 推荐(0) 编辑
摘要: TPAMI20 个人感觉这篇论文写的有点莫名其妙,很多地方都没有讲清楚,符号下标也都没有讲清楚。代码也是,全都是按block1,2,3这样来的,可读性奇差。但顶不住表现好啊。 Motivation: 如何重复利用网络的特征图,使得网络的深度不需要特别深也可以得到比较好的效果.一种方式是使用recur 阅读全文
posted @ 2020-12-18 14:55 wyboooo 阅读(300) 评论(0) 推荐(0) 编辑
摘要: 今天总结一下目前SR的SOTA中利用了Attention的工作,主要有3篇.按时间顺序分别是18年的RCAN,19年的SAN和20年的HAN.利用Attention的SR再PSNR表现上都排名比较靠前,HAN可以算是目前表现排在第一的. RCAN【ECCV18】 笔记链接 比较早引入channel- 阅读全文
posted @ 2020-12-13 21:31 wyboooo 阅读(391) 评论(0) 推荐(0) 编辑
摘要: arxiv上23号新放出的何凯明大神的新作。针对Siamese Network中的collapsing问题进行了分析,并指出,目前避免这个问题的一些方法:负样本,大batch,momentum encoder其实都是不必要的。在避免collapsing问题中,stop-gradient操作非常重要, 阅读全文
posted @ 2020-11-27 17:33 wyboooo 阅读(1443) 评论(0) 推荐(1) 编辑
摘要: CVPR20的文章,感觉想法挺棒的。 超分问题可以定义为$y=(x\otimes k)\downarrow_s+n$.他通常有两大类解决方法,早期通常是使用model-based方法。基于一些模型,比如MAP(最大后验概率)进行计算。在MAP的框架下,超分辨率重建是一个基于马尔科夫随机场先验模型的统 阅读全文
posted @ 2020-09-30 16:16 wyboooo 阅读(1492) 评论(0) 推荐(0) 编辑
摘要: 在现实情况下,SR模型通常会由于实际得blur kernel与预先假设的不一致而造成严重的performance drop。blind SR问题就是要尝试解决blur kernel未知情况下的SR问题。本文就针对blind SR提出,预测每张照片blur kernel的方法,再将blur kerne 阅读全文
posted @ 2020-09-16 20:22 wyboooo 阅读(722) 评论(0) 推荐(0) 编辑
摘要: 针对SRGAN提出的几点改进,获得了PIRM2018视觉质量的第一名。 首先是使用去掉BN层的Residual in Residual Dense Block作为网络的basic unit。并且使用residual scling 和 smaller initialization帮助训练更深的网络。 阅读全文
posted @ 2020-09-15 19:14 wyboooo 阅读(245) 评论(0) 推荐(0) 编辑
摘要: 目前的SR任务都是将真实图像进行下采样得到成对数据集进行训练,这样的训练会造成与真实情况存在domain gap。因此本文针对这个问题提出了用不成对的数据进行一种伪监督训练。感觉本质上就是通过CycleGAN学到HR图像y到LR图像x的映射,但此时得到y对应的LR图像与实际的x不是一样的,因此称为是 阅读全文
posted @ 2020-09-15 13:51 wyboooo 阅读(868) 评论(0) 推荐(0) 编辑
摘要: 2012年的一篇文章,是NIQE评价指标的基础。在此之前NR IQA都是针对某个distortion的,需要预先知道对应的distortion。作者提出的BRISQUE(blind/referenceless image spatial quality evaluator)使用locally nor 阅读全文
posted @ 2020-09-08 18:07 wyboooo 阅读(363) 评论(2) 推荐(0) 编辑
摘要: 本文是针对Zero-Shot(ZSSR)的缺点做出的一些改进。虽然ZSSR提出了利用内部信息,采用无监督的方式进行SR,但缺点在于其测试时间过长。本文提出的MZSR将元学习和ZSSR结合,同时利用内部和外部信息,可以在几个gradient update中就输出比较好的结果。 元学习一般分为两个部分: 阅读全文
posted @ 2020-09-07 14:38 wyboooo 阅读(532) 评论(0) 推荐(0) 编辑
摘要: 证明了distortion和perceptual quality之间是矛盾的,并且存在一条tradeoff曲线。所有图像复原类任务的表现只能逼近这个曲线。 distortion:指的是重建图像$\widehat{x}$与原图像$x$之间的不相似度 perceptual quality:仅指$\wid 阅读全文
posted @ 2020-09-02 14:16 wyboooo 阅读(503) 评论(0) 推荐(0) 编辑
摘要: dynamic inference指的是根据输入调整预测的过程,通过对简单样本减少计算开销来减少总的开销。这篇文中就是dynamic inference方面的一个工作。将静态CNN模型转换为支持dynamic inference的模型后,通过NAS进行搜索,这种方法可以generalize到大部分的 阅读全文
posted @ 2020-08-30 15:08 wyboooo 阅读(387) 评论(0) 推荐(0) 编辑
摘要: 作者的前两篇文章分别探讨了如何训练一个可以slim到指定宽的的网络以及如何训练一个可以选取任意子宽度的网络。在这篇文章中,作者试图解决的问题是对于给定的配置,选取各层最优的网络宽度。 目前对于网络宽度的选择主要依靠经验,如"half size, double channel"rule, pyrami 阅读全文
posted @ 2020-08-28 14:34 wyboooo 阅读(773) 评论(0) 推荐(0) 编辑
摘要: 作者在Slimmable Neural Networks这篇文章中研究了训练宽度可实时变化的网络的方法,但那篇文章中的宽度是训练时指定好的固定的宽度。在这篇文章中作者提出一种训练universally slimmable networks(USNet)的方法,运行时可以选择某个范围中的任意宽度,并且 阅读全文
posted @ 2020-08-26 10:54 wyboooo 阅读(410) 评论(0) 推荐(0) 编辑
摘要: NIPS2018的一篇文章,探究Batch Normalization起作用的背后原因。作者的结论是BN对缓解ICS问题作用非常微弱,BN的作用在于使得优化过程的landscape更光滑,其他的一些归一化方法也可以达到这样的效果。 Batch Normalization通过增加额外的层,控制层输入的 阅读全文
posted @ 2020-08-21 18:25 wyboooo 阅读(457) 评论(0) 推荐(0) 编辑