摘要: 一、激活函数 线性操作分类能力不强,而非线性表达可以分开数据。 神经网络中隐层就是增加了激活函数,使得神经网络表达出更强大的效果。 Sigmoid可作为激活函数,但容易引起梯度消失(导数趋近于0)。 max(0,x)就是ReLU激活函数,可以解决梯度消失问题,导数简单,已经常用的神经网络激活函数。 阅读全文
posted @ 2018-11-02 11:29 zarjen 阅读(490) 评论(0) 推荐(0)