会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
小马嘚儿嘚儿
博客园
首页
新随笔
联系
订阅
管理
2017年5月13日
在UNC学习DL的日子——Relu函数
摘要: 以下网址介绍了Relu的前世今生 http://www.cnblogs.com/neopenx/p/4453161.html 第一个问题:为什么引入非线性激励函数? 如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有
阅读全文
posted @ 2017-05-13 03:13 小马嘚儿嘚儿
阅读(223)
评论(0)
推荐(0)