会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
罗俊林
博客园
首页
新随笔
联系
订阅
管理
2017年5月5日
交叉熵+softmax
摘要: What does the cross-entropy mean? Where does it come from? 交叉熵是什么意思呢?它是从哪里来的? 上一节咱们从代数分析和实际应用对交叉熵进行了介绍,这一节从概念角度介绍下它: 问题1:第一次是怎么想到交叉熵的呢? 假设我们已经知道学习变慢是因
阅读全文
posted @ 2017-05-05 18:24 有书成林
阅读(10330)
评论(0)
推荐(0)
2017年5月4日
第三章:优化神经网络的学习
摘要: 第三章:优化神经网络的学习 1、The cross-entropy cost function 交叉熵损失函数: 1、The cross-entropy cost function 交叉熵损失函数: 我们面对错误的时候会感到不安,但是犯错误时我们可以学习得更快! 理想状态下,我们希望神经网络可以从网
阅读全文
posted @ 2017-05-04 18:57 有书成林
阅读(1155)
评论(0)
推荐(0)
公告