会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
hwj_note
博客园
首页
新随笔
联系
订阅
管理
2019年4月24日
Batch Normalization 算法训练和推断过程
摘要: Batch Normalization就是批归一化,在神经网络的layer未激活输出之前加一道Batch Normalization的工序,以下简称BN。关于BN的原理介绍,网上有很多资料,也可以参考这篇https://www.cnblogs.com/huwj/p/10759532.html,在这里
阅读全文
posted @ 2019-04-24 21:34 hwj_blog
阅读(1826)
评论(0)
推荐(0)
2019年4月23日
深度学习之Batch Normalization
摘要: 原文链接:https://www.cnblogs.com/Luv-GEM/p/10756382.html 在机器学习领域中,有一个重要的假设:独立同分布假设,也就是假设训练数据和测试数据是满足相同分布的,否则在训练集上学习到的模型在测试集上的表现会比较差。而在深层神经网络的训练中,当中间神经层的前一
阅读全文
posted @ 2019-04-23 22:37 hwj_blog
阅读(740)
评论(0)
推荐(0)
2019年4月22日
TensorFlow学习笔记之tf.train.ExponentialMovingAverage(decay=decay, num_updates=num_updates)类的理解
摘要: 神经网络训练一个模型的过程中,对于每一次参数的更新可以增加一个trick,即对参数进行滑动平均更新,即moving average,会对模型的训练有益。参照源码的一句说法:When training a model, it is often beneficial to maintain moving
阅读全文
posted @ 2019-04-22 21:59 hwj_blog
阅读(1292)
评论(0)
推荐(1)
TensorFlow学习笔记之control_dependencies(control_inputs)函数理解
摘要: https://blog.csdn.net/hu_guan_jie/article/details/78495297
阅读全文
posted @ 2019-04-22 21:11 hwj_blog
阅读(743)
评论(0)
推荐(1)
公告