高级卷积神经网络:
下面是提升卷积神经网络的三个方法
池化 (pooling):用更好的方法降维。
1X1卷积 (1X1 convolutions)
一个更高级一点的inception结构 (inception)
最大池化 (max pooling)
优点 没有增加参数数量,不必担心会导致容易过拟合
常常简单的产生了更精确的模型
缺点 由于在非常低的步幅下进行了卷积,模型必然需要更多的计算量,且你有更多的超参数需要调整,例如池化区域尺寸,池化步幅
一种典型的卷积神经网络结构为:几层的卷积和池化的交替,然后在最末端连接几层全连接层,第一个使用这种结构的著名模型是 LENET-5 (Yann Lecun '98用于字母识别)
高级的卷积神经网络 如著名的 ALEXNET (在2012年赢得了ImageNet物体识别挑战赛) 使用了一种非常类似的结构
平均池化 (avarage pooling)
.....
1X1卷积

在中间加一个1X1卷积,在卷积操作中散步一些1x1卷积,是一种使模型变得更深的低耗高效的方法,它会存在更多的参数但并没有完全改变神经网络结构。它非常简单,因为如果你看它的数学公式,它根本不是卷积,它们只是矩阵的相乘且仅有较少的参数。
inception 模型

浙公网安备 33010602011771号