08 2018 档案

摘要:GoogleNet的发展 Inception V1: Inception V1中精心设计的Inception Module提高了参数的利用率;nception V1去除了模型最后的全连接层,用全局平均池化层(将图片尺寸变为1x1),在先前的网络中,全连接层占据了网络的大部分参数,很容易产生过拟合现象 阅读全文
posted @ 2018-08-24 21:56 InsistPy 阅读(1147) 评论(0) 推荐(0)
摘要:构建更多训练数据 阅读全文
posted @ 2018-08-22 16:54 InsistPy 阅读(444) 评论(0) 推荐(0)
摘要:在设计卷积神经网络架构时,有时候想压缩input的width 和 height,通常的做法便是 加一层pooling layer。 但是第三维的信息,有时候过多,而且过于复杂,这时候就要用到1x1xchannel的filter了。 如图: 1X1x192的filter相当于对图片的某一个像素点进行神 阅读全文
posted @ 2018-08-22 15:43 InsistPy 阅读(527) 评论(0) 推荐(0)
摘要:optimizer是在训练中,运用到的训练方法,最常用的是梯度下降法,去寻找最优loss,tf中常见的optimizer有: 通过Dr.Sebastian Ruder 的论文An overview of gradient descent optimization algorithms来详细了解一些优 阅读全文
posted @ 2018-08-21 12:25 InsistPy 阅读(745) 评论(0) 推荐(0)
摘要:记录一下filter,也就是用来提取要识别object边缘信息的过滤器的一些规律以及经验: 首先, 大部分卷积神经网络滤波器都会采用逐层递增(1⇒ 3 ⇒ 5 ⇒ 7)的方式。其次,每经过一次池化层,卷积层过滤器的深度都会乘以 2。 提一个知识点,也就是权值共享,每当filter扫过feature 阅读全文
posted @ 2018-08-21 00:03 InsistPy 阅读(3239) 评论(0) 推荐(0)
摘要:记录一下感受野的理解: 在神经网络中,感受野的定义是: 神经网络的每一层输出的特征图(Feature ap)上的像素点在原图像上映射的区域大小。 1. 神经网络中,第一个卷积层的 感受野大小,就等于filter,滤波器的大小。 2. 深层卷积层的感受野大小和它之前所有层的滤波器大小和步长有关系。 3 阅读全文
posted @ 2018-08-20 22:57 InsistPy 阅读(280) 评论(0) 推荐(0)

隐藏