摘要: 目录 产生背景 举例 参考资料 产生背景 之前在深度学习面试题16:小卷积核级联卷积VS大卷积核卷积中介绍过小卷积核的三个优势: ①整合了三个非线性激活层,代替单一非线性激活层,增加了判别能力。 ②减少了网络参数。 ③减少了计算量 在《Rethinking the Inception Archite 阅读全文
posted @ 2019-07-26 18:13 黎明程序员 阅读(3961) 评论(0) 推荐(1) 编辑
摘要: 目录 第一层卷积换为分离卷积 一些层的卷积核的个数发生了变化 多个小卷积核代替大卷积核 一些最大值池化换为了平均值池化 完整代码 参考资料 第一层卷积换为分离卷积 net = slim.separable_conv2d( inputs, depth(64), [7, 7], depth_multip 阅读全文
posted @ 2019-07-26 17:03 黎明程序员 阅读(633) 评论(0) 推荐(0) 编辑
摘要: 目录 举例 单个张量与多个卷积核的分离卷积 参考资料 举例 分离卷积就是先在深度上分别卷积,然后再进行卷积,对应代码为: import tensorflow as tf # [batch, in_height, in_width, in_channels] input =tf.reshape(tf. 阅读全文
posted @ 2019-07-26 15:51 黎明程序员 阅读(716) 评论(0) 推荐(0) 编辑
摘要: 目录 举例 单个张量与多个卷积核在深度上分别卷积 参考资料 举例 如下张量x和卷积核K进行depthwise_conv2d卷积 结果为: depthwise_conv2d和conv2d的不同之处在于conv2d在每一深度上卷积,然后求和,depthwise_conv2d没有求和这一步,对应代码为: 阅读全文
posted @ 2019-07-26 14:59 黎明程序员 阅读(2012) 评论(1) 推荐(1) 编辑
摘要: 目录 直接定义的缺点 简易定义的方式 参考资料 直接定义的缺点 在tensorflow中假设有一批输入为: 其定义如下: tf.constant([ [ [ [3, 1, -3], [1, -1, 7] ], [ [-2, 2, -5], [2, 7, 3] ] ], [ [ [-1, 3, 1], 阅读全文
posted @ 2019-07-26 14:17 黎明程序员 阅读(751) 评论(0) 推荐(0) 编辑