2017年5月13日
摘要: 以下网址介绍了Relu的前世今生 http://www.cnblogs.com/neopenx/p/4453161.html 第一个问题:为什么引入非线性激励函数? 如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有 阅读全文
posted @ 2017-05-13 03:13 小马嘚儿嘚儿 阅读(223) 评论(0) 推荐(0)