虽有宝刀,藏而不用

银鞍白马

日拱一卒

摘要: 1. np.sum 参数axis axis = 1.将一个矩阵的每一行向量相加 2.升维 x = y[:, :, :, np.newaxis] 3. (a>2).*(a<3)就可以很快找到数组a里面介于2和3之间的数,会比for循环快很多 4. numpy直接用*代表对应位置相乘,@代表矩阵乘法 阅读全文
posted @ 2020-03-20 15:25 银鞍白马 阅读(127) 评论(0) 推荐(0) 编辑
摘要: 1.image import numpy as npfrom PIL import Image image = Image.open(imgName).resize((64, 64))imageArray = np.array(image) 2. 保存,加载 import numpy as np # 阅读全文
posted @ 2020-03-20 15:13 银鞍白马 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 1. plt.plt plt.plot(x, y) x,y必须形状为[n,1],不能为[1, n] 参数改变形状:marker 2.plt.xlim(xmin, xmax) y同理a 3. plt.contourf(x, y, z, 50, alpha=0.5, cmap=plt.get_cmap( 阅读全文
posted @ 2020-03-06 20:47 银鞍白马 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 1.升采样结构: 1.前端升采样: 2.后端升采样 2.升采样方法 1.插值 2.转置卷积 3.亚像素卷积层 阅读全文
posted @ 2019-11-22 15:52 银鞍白马 阅读(414) 评论(0) 推荐(0) 编辑
摘要: n 本文是对SRCNN的改进,主要有三点: 1.在网络最后一层添加转置卷积层,以后端升采样结构取代SRCNN的前端升采样结构。 2.在非线性映射之前进行降维,mapping之后进行升维 3.filter size变小,而mapping层增多。 1.简介 经典的SRCNN无法满足实时性要求。经过研究我 阅读全文
posted @ 2019-11-22 15:29 银鞍白马 阅读(1801) 评论(0) 推荐(0) 编辑
摘要: CVPR 2016 1.之前方法存在的问题 SRCNN的缺点: 1.深度不够导致,感受野小。尤其是大尺度变换,从小patch中提取的信息不足以进行高质量重建。 2.收敛慢 3.只能实现单一尺度超分辨 2.这篇文章的改进和优点 1.本结构网络感受野更大。利用了更大区域的上下文信息。 2.残差学习和自适 阅读全文
posted @ 2019-11-21 17:32 银鞍白马 阅读(1237) 评论(0) 推荐(0) 编辑
摘要: CVPR2016 神经网络学习非线性关系的灵活性对于处理SR问题很合适。 1.文章想要解决的问题 如果在在网络之前通过插值的方法将LR图像上采样有两个缺点:一是计算复杂度;二是插值算法通常不会引入用于解决不适定重建问题的额外信息。而转置卷积进行上采样不过是插值方法的特殊情况。 2.解决的方法 通过在 阅读全文
posted @ 2019-11-05 16:53 银鞍白马 阅读(754) 评论(0) 推荐(0) 编辑
摘要: 1.SRCNN https://blog.csdn.net/xu_fu_yong/article/details/96434132 2。整理 https://www.jianshu.com/p/6d761f8a8149?tdsourcetag=s_pcqq_aiomsg 3. 张凯师兄:https: 阅读全文
posted @ 2019-10-12 22:25 银鞍白马 阅读(257) 评论(0) 推荐(0) 编辑
摘要: 1.反卷积 http://www.360doc.com/content/19/0507/12/57110788_834069126.shtml 更形象https://blog.csdn.net/tsyccnh/article/details/87357447 分数步长的理解:https://www. 阅读全文
posted @ 2019-09-08 10:16 银鞍白马 阅读(163) 评论(0) 推荐(0) 编辑
摘要: 1. RuntimeError: Expected object of scalar type Long but got scalar type Float for argument #2 'mat2'(期望对象为标量类型长,但得到标量类型浮点数) y= torch.matmul(x,w) 解决:y 阅读全文
posted @ 2019-09-08 10:16 银鞍白马 阅读(420) 评论(0) 推荐(0) 编辑