虽有宝刀,藏而不用

银鞍白马

日拱一卒

09 2019 档案

摘要:1.反卷积 http://www.360doc.com/content/19/0507/12/57110788_834069126.shtml 更形象https://blog.csdn.net/tsyccnh/article/details/87357447 分数步长的理解:https://www. 阅读全文
posted @ 2019-09-08 10:16 银鞍白马 阅读(167) 评论(0) 推荐(0)
摘要:1. RuntimeError: Expected object of scalar type Long but got scalar type Float for argument #2 'mat2'(期望对象为标量类型长,但得到标量类型浮点数) y= torch.matmul(x,w) 解决:y 阅读全文
posted @ 2019-09-08 10:16 银鞍白马 阅读(435) 评论(0) 推荐(0)
摘要:1. t.Tensor 和t.tensor的不同 t.Tensor(size)可以直接创建形为size的张量 t.tensor()需要t.tensor([1, 2])创建. 不论输入的类型是什么,t.tensor都会进行数据拷贝,不会共享内存 2. resize()和view()的不同 resize 阅读全文
posted @ 2019-09-08 10:15 银鞍白马 阅读(153) 评论(0) 推荐(0)
摘要:1.这篇论文的主要假设是什么?(在什么情况下是有效的),这假设在现实中有多容易成立 LR图像是HR图像经过模糊(低通滤波器),下采样,加噪处理后的图像。 2.在这些假设下,这篇论文有什么好处3.这些好处主要表现在哪些公式的哪些项目的简化上。4.这一派的主要缺点有哪些 1.神经网络的计算速度却决于输入 阅读全文
posted @ 2019-09-08 10:15 银鞍白马 阅读(2339) 评论(0) 推荐(0)
摘要:阅读他人的代码能够帮助你学习编程。类似的,研究他人开训练出的实例,有助于你构建自己的CNN。 1.classicla network 1.1 LeNet-5 n_H,n_W在减小,n_C在增加 一个或多个卷积层后边跟一个池化层 阅读论文:只需精读第二段 1.2 AlexNet 论文:任务被分到了两个 阅读全文
posted @ 2019-09-03 08:45 银鞍白马 阅读(323) 评论(0) 推荐(0)
摘要:1. 边缘检测 2. Padding 为了解决两个问题: 1.输出缩小。卷积操作后图像由(n,n)变成了(n-f+1,n-f+1) 2.丢失图像边缘的大部分信息 在卷积操作前对图像边缘进行填充,填充p个像素点。则填充并进行卷积后图像尺寸为(n+2p-f+1, n+2p-f+1) 选择填充size:v 阅读全文
posted @ 2019-09-03 08:44 银鞍白马 阅读(165) 评论(0) 推荐(0)