上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 35 下一页

2018年6月22日

Relu的理解

摘要: ReLU上的花样 CNN出现以来,感觉在各个地方,即便是非常小的地方都有点可以挖掘。比如ReLU。 ReLU的有效性体现在两个方面: 克服梯度消失的问题 加快训练速度 而这两个方面是相辅相成的,因为克服了梯度消失问题,所以训练才会快。 ReLU的起源,在这片博文里,对ReLU的起源的介绍已经很详细了 阅读全文

posted @ 2018-06-22 13:46 Maddock 阅读(65769) 评论(0) 推荐(5) 编辑

mxnet与tensorflow的卷积实现细节比较

摘要: mxnet的卷积 kernel = 3 pad=1边界补充0后,不管stride是否1还是2,imgw = 奇数或者偶数, 都是从图像位置(0,0)开始卷积 tensorlfow的卷积 kernel = 3 pad=‘SAME’边界补充0后, imgw = 偶数 stride=1, 是从图像位置(0 阅读全文

posted @ 2018-06-22 10:24 Maddock 阅读(799) 评论(0) 推荐(0) 编辑

2018年6月21日

卷积输入输出图像大小的计算

摘要: 输入输出图像大小的计算 此段内容引自我翻译的一篇文章 上面的内容可能会使你混淆每一层的输出尺寸。 所以我决定使用下面的内容让你能够识别输出尺寸。 在卷积层中,有三个关键控制着输出尺寸的大小 我们可以应用一个简单的公式来计算输出尺寸。 输出图像的空间大小可以计算(W-F + 2 p / S)+ 1。 阅读全文

posted @ 2018-06-21 16:55 Maddock 阅读(2127) 评论(0) 推荐(0) 编辑

Convolution Network及其变种(反卷积、扩展卷积、因果卷积、图卷积)

摘要: Convolution Network及其变种(反卷积、扩展卷积、因果卷积、图卷积) 阅读全文

posted @ 2018-06-21 08:24 Maddock 阅读(651) 评论(0) 推荐(0) 编辑

2018年6月20日

mxnet卷积计算

摘要: #coding:utf-8 ''' 卷积计算 ''' import mxnet as mx from mxnet.gluon import nn from mxnet import ndarray as nd # 卷积层 # 输入输出的数据格式是: batch * channel * height * width # 权重格式:output_channels * in_channels *... 阅读全文

posted @ 2018-06-20 13:40 Maddock 阅读(380) 评论(0) 推荐(0) 编辑

2018年6月15日

Group Normalization

摘要: Group Normalization Group Normalization 2018年03月26日 18:40:43 阅读数:1351 2018年03月26日 18:40:43 阅读数:1351 阅读数:1351 FAIR 团队,吴育昕和恺明大大的新作Group Normalization。 主 阅读全文

posted @ 2018-06-15 09:17 Maddock 阅读(1612) 评论(0) 推荐(0) 编辑

2018年6月14日

Resnet小记

摘要: ResNet之Deeper Bottleneck Architectures ResNet之Deeper Bottleneck Architectures 2016年12月28日 22:17:48 阅读数:2350 2016年12月28日 22:17:48 阅读数:2350 阅读数:2350 去年的 阅读全文

posted @ 2018-06-14 15:37 Maddock 阅读(658) 评论(0) 推荐(0) 编辑

2018年6月12日

Mxnet 查看模型params的网络结构

摘要: python showmxmodel.py 2>&1 | tee log.txtresult is('stage3_unit2_bn1_beta', (256L,))('stage3_unit2_bn3_beta', (256L,))('stage3_unit11_bn1_gamma', (256L 阅读全文

posted @ 2018-06-12 16:46 Maddock 阅读(4168) 评论(0) 推荐(0) 编辑

2018年6月7日

ResNets和Inception的理解

摘要: ResNets和Inception的理解 ResNet解析 阅读全文

posted @ 2018-06-07 10:19 Maddock 阅读(168) 评论(0) 推荐(0) 编辑

2018年6月6日

基础 | batchnorm原理及代码详解

摘要: https://blog.csdn.net/qq_25737169/article/details/79048516 https://www.cnblogs.com/bonelee/p/8528722.html Notes on Batch Normalization Notes on Batch 阅读全文

posted @ 2018-06-06 16:36 Maddock 阅读(1783) 评论(0) 推荐(0) 编辑

上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 35 下一页

导航