摘要: 1、为什么引入非线性激活函数 如果不用激励函数,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。当引入非线性函数作为激励函数,这样深层神经网络就有意义了(不再是输入的线性组合,可以逼近任意函数)。 2、为什么使用 ReLU 阅读全文
posted @ 2021-03-08 10:43 Jary霸 阅读(155) 评论(0) 推荐(0)