随笔分类 - 论文笔记
摘要:1. 摘要 在使用非常小(3×3)的卷积核情况下,作者对逐渐增加网络的深度进行了全面的评估,通过设置网络层数达 16 19 层,最终效果取得了显著提升。 2. 介绍 近来,卷积神经网络在大规模图像识别领域取得了巨大的成功,这一方面归功于大规模公开数据的出现,另一方面则是计算能力的提升。在 AlexN
阅读全文
摘要:1. 摘要 ReLU 相比 Tanh 能产生相同或者更好的性能,而且能产生真零的稀疏表示,非常适合自然就稀疏的数据。 采用 ReLU 后,在大量的有标签数据下,有没有无监督预训练模型取得的最好效果是一样的,这可以被看做是训练深层有监督网络的一个新的里程碑。 2. 背景 2.1. 神经元科学的观察 对
阅读全文
摘要:1. 摘要 本文尝试解释为什么在深度的神经网络中随机初始化会让梯度下降表现很差,并且在此基础上来帮助设计更好的算法。 作者发现 sigmoid 函数不适合深度网络,在这种情况下,随机初始化参数会让较深的隐藏层陷入到饱和区域。 作者提出了一个新的参数初始化方法,称之为 Xavier 初始化,来帮助深度
阅读全文
摘要:1. 摘要 本文的模型采用了 5 层的卷积,一些层后面还紧跟着最大池化层,和 3 层的全连接,最后是一个 1000 维的 softmax 来进行分类。 为了减少过拟合,在全连接层采取了 dropout,实验结果证明非常有效。 2. 数据集 ImageNet 数据集包含了超过 15,000,000 大
阅读全文
摘要:1. 摘要 在 $ReLU$ 的基础上作者提出了 $PReLU$,在几乎没有增加额外参数的前提下既可以提升模型的拟合能力,又能减小过拟合风险。 针对 $ReLU/PReLU$ 的矫正非线性,作者设计了一个鲁棒的的参数初始化方法。 2. 介绍 在过去几年,随着更强大网络模型的构建和有效防止过拟合策略的
阅读全文
摘要:1. 摘要 训练深层的神经网络非常困难,因为在训练的过程中,随着前面层数参数的改变,每层输入的分布也会随之改变。这需要我们设置较小的学习率并且谨慎地对参数进行初始化,因此训练过程比较缓慢。 作者将这种现象称之为 internal covariate shift ,通过对每层的输入进行归一化来解决这个
阅读全文
摘要:高斯噪声是一个均值为 0 方差为 $\sigma_n^2$ 的正态分布,是一个加性噪声。但要正确地给图片添加高斯噪声,还要取决于程序中读入图片的数据格式。 如果图片的数据格式为 uint8,也即数据的范围为 [0, 255],那么直接生成对应方差的噪声,然后加到图片上去。 此处 np.random.
阅读全文
摘要:1. PSNR (Peak Signal to Noise Ratio) 峰值信噪比 给定一个大小为 $m×n$ 的干净图像 $I$ 和噪声图像 $K$,均方误差 $(MSE)$ 定义为: $$MSE = \frac{1}{mn}\sum_{i=0}^{m 1}\sum_{j=0}^{n 1}[I(
阅读全文
摘要:根据是否联合利用超光谱图像的空间和光谱信息,高光谱图像去噪技术可以分为两类。第一类就是将传统 2 D 图像去噪的方法直接应用到超光谱图像的每个频带上去,称为逐带去噪。第二类就是联合利用空间和光谱信息来进行去噪,称为联合去噪,这又可以大致分为基于变换域的方法和基于空间域的方法。除此之外,由于深度理论的
阅读全文
摘要:本文提出了一个针对真实图像的盲卷积去噪网络,增强了深度去噪模型的鲁棒性和实用性。 摘要 作者提出了一个 CBD Net,由噪声估计子网络和去噪子网络两部分组成。 作者设计了一个更加真实的噪声模型,同时考虑了信号依赖的噪声和相机内部处理的噪声。 基于真实噪声模型合成的图片和真实的噪声图片被联合在一起对
阅读全文
摘要:Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections 作者:Xiao-Jiao Mao、Chunhua Shen等 本文提出了一个深度的全卷积编
阅读全文

浙公网安备 33010602011771号