摘要:
池化层的作用如下-引用《TensorFlow实践》: 池化层的作用是减少过拟合,并通过减小输入的尺寸来提高性能。他们可以用来对输入进行降采样,但会为后续层保留重要的信息。只使用tf.nn.conv2d来减小输入的尺寸也是可以的,但是池化层的效率更高。 常见的TensorFlow提供的激活函数如下:( 阅读全文
posted @ 2017-08-09 18:15
小淼博客
阅读(1253)
评论(0)
推荐(0)
|
摘要:
池化层的作用如下-引用《TensorFlow实践》: 池化层的作用是减少过拟合,并通过减小输入的尺寸来提高性能。他们可以用来对输入进行降采样,但会为后续层保留重要的信息。只使用tf.nn.conv2d来减小输入的尺寸也是可以的,但是池化层的效率更高。 常见的TensorFlow提供的激活函数如下:( 阅读全文
posted @ 2017-08-09 18:15
小淼博客
阅读(1253)
评论(0)
推荐(0)
摘要:
激活函数的作用如下-引用《TensorFlow实践》: 这些函数与其他层的输出联合使用可以生成特征图。他们用于对某些运算的结果进行平滑或者微分。其目标是为神经网络引入非线性。曲线能够刻画出输入的复杂的变化。TensorFlow提供了多种激活函数,在CNN中一般使用tf.nn.relu的原因是因为,尽 阅读全文
posted @ 2017-08-09 16:22
小淼博客
阅读(18570)
评论(0)
推荐(0)
摘要:
更多的基本的API请参看TensorFlow中文社区:http://www.tensorfly.cn/tfdoc/api_docs/python/array_ops.html 下面是实验的代码,可以参考,对应的图片是输出的结果: import tensorflow as tf import matp 阅读全文
posted @ 2017-08-09 15:13
小淼博客
阅读(3210)
评论(0)
推荐(0)
|
大家转载请注明出处!谢谢! 在这里要感谢GISPALAB实验室的各位老师和学长学姐的帮助!谢谢~