摘要: max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似 有些地方可以从卷积去参考【TensorFlow】tf.nn.conv2d是怎样实现卷积的? tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积 阅读全文
posted @ 2018-08-01 16:33 瘋耔 阅读(421) 评论(0) 推荐(0) 编辑
摘要: tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积很类似: Example: 阅读全文
posted @ 2018-08-01 15:59 瘋耔 阅读(229) 评论(0) 推荐(0) 编辑
摘要: 这个函数的作用是计算激活函数 relu,即 max(features, 0)。即将矩阵中每行的非最大值置0。 阅读全文
posted @ 2018-08-01 14:14 瘋耔 阅读(283) 评论(0) 推荐(0) 编辑
摘要: 之前在tensorflow上和caffe上都折腾过CNN用来做视频处理,在学习tensorflow例子的时候代码里面给的优化方案默认很多情况下都是直接用的AdamOptimizer优化算法,如下: optimizer = tf.train.AdamOptimizer(learning_rate=lr 阅读全文
posted @ 2018-08-01 11:33 瘋耔 阅读(837) 评论(0) 推荐(0) 编辑
摘要: 一、 Dropout原理简述: tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层。 Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计 阅读全文
posted @ 2018-08-01 11:21 瘋耔 阅读(478) 评论(0) 推荐(0) 编辑
跳至侧栏