摘要: 在训练卷积神经网络模型时,经常遇到max pooling 和 average pooling,近些年的图像分类模型多数采用了max pooling,为什么都是使用max pooling,它的优势在哪呢? 一般情况下,max pooling的效果更好,虽然 max pooling 和 average 阅读全文
posted @ 2020-04-13 20:52 BooTurbo 阅读(4666) 评论(0) 推荐(0) 编辑
摘要: 三种非线性激活函数sigmoid、tanh、ReLU。 sigmoid: y = 1/(1 + e-x) tanh: y = (ex - e-x)/(ex + e-x) ReLU:y = max(0, x) 在隐藏层,tanh函数要优于sigmoid函数,可以看作是sigmoid的平移版本,优势在于 阅读全文
posted @ 2020-04-13 20:01 BooTurbo 阅读(4915) 评论(0) 推荐(0) 编辑
摘要: 首先引用下网上的解释: For a grayscale image, every pixel in the mean image is computed from the average of all corresponding pixels (i.e. same coordinates) acro 阅读全文
posted @ 2020-04-13 00:15 BooTurbo 阅读(7373) 评论(0) 推荐(1) 编辑