摘要:InceptionV1 论文原文:Going deeper with convolutions 中英文对照 InceptionBN 论文原文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Co 阅读全文
posted @ 2019-07-16 22:00 HongmingYou 阅读(1065) 评论(0) 推荐(0) 编辑
摘要:在前文中,我们介绍了LeNet的相关细节,它是由两个卷积层、两个池化层以及两个全链接层组成。卷积都是5*5的模板,stride =1,池化为MAX。整体来说它有三大特点:局部感受野,权值共享和池化。2012年ALex发布了AlexNet,他比LeNet5更深,而且可以学习更复杂的图像高维特征。接下来 阅读全文
posted @ 2019-07-16 12:42 HongmingYou 阅读(344) 评论(0) 推荐(0) 编辑
摘要:转自深度学习知识框架,小象牛逼! 图片来自小象学院公开课,下面直接解释几条线 神经网络 线性回归 (+ 非线性激励) → 神经网络 有线性映射关系的数据,找到映射关系,非常简单,只能描述简单的映射关系 大部分关系是非线性的,所以改进方法就是加一个非线性激励,某种程度是一个 NORMALIZE,但是是 阅读全文
posted @ 2019-07-16 12:18 HongmingYou 阅读(198) 评论(0) 推荐(0) 编辑