摘要: 读本篇论文“Batch-normalized Maxout Network in Network”的原因在它的mnist错误率为0.24%,世界排名第4。并且代码是用matlab写的,本人还没装cafe…… 理论知识 本文是台湾新竹国立交通大学的Jia-Ren Chang 写的,其实要说这篇文章有多 阅读全文
posted @ 2016-09-29 14:21 夜空中最帅的星 阅读(1000) 评论(0) 推荐(0) 编辑
摘要: 论文Network in network (ICLR 2014)是对传统CNN的改进,传统的CNN就交替的卷积层和池化层的叠加,其中卷积层就是把上一层的输出与卷积核(即滤波器)卷积,是线性变换,然后再加上一个非线性变换的激活函数(比如:relu),但是在NIN中并有像CNN中这样, 1.它们的区别之 阅读全文
posted @ 2016-09-29 14:21 夜空中最帅的星 阅读(982) 评论(0) 推荐(0) 编辑
摘要: 论文Maxout Networks实际上非常简单,只是发现一种新的激活函数(叫maxout)而已,跟relu有点类似,relu使用的max(x,0)是对每个通道的特征图的每一个单元执行的与0比较最大化操作,而maxout是对5个通道的特征图在通道的维度上执行最大化操作 这些论文已经有很多前人帮我们解 阅读全文
posted @ 2016-09-29 14:21 夜空中最帅的星 阅读(552) 评论(0) 推荐(0) 编辑