自问自答-CNN学习笔记

1.why  CNN

neural Network 对大尺寸图像是不尽人意的,全连接方式效率低下,大量的参数会导致网络过度拟合。CNN针对输入是图像的情况。,神经元三维排列,(加D的话是不是就思维排列?)使结构调整更加合理。

2.一个简单的问题:哪一层由参数?哪些层没有呢?哪些层是有超参数的?

3.CNN如何使参数变少?

在卷积层中使用参数共享是用来控制参数的数量。就用上面的例子,在第一个卷积层就有55x55x96=290,400个神经元,每个有11x11x3=364个参数和1个偏差。将这些合起来就是290400x364=105,705,600个参数。单单第一层就有这么多参数,显然这个数目是非常大的。
深度切片,参数共享,
4.扩张卷积:当卷积核之间的移动不是连续的,而是存在间隙的,例如w[0]*x[0] + w[1]*x[1] + w[2]*x[2],此时扩张为0。如果扩张为1,那么计算为: w[0]*x[0] + w[1]*x[2] + w[2]*x[4]。
5.几个小滤波器组合跟一个大滤波器有什么区别?
前者好。  几个小滤波器的组合可以实现大滤波器的功能。,首先多个卷积层可以提取成更多的特征,并且参数数目更少。唯一不足之处,在反向传播过程中,中间卷积层可能会导致占用跟多的内存。
6.各个层之间的数据所占内

 

posted @ 2016-10-14 12:31  小萝、卜  阅读(462)  评论(0编辑  收藏  举报