摘要: 激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。 阅读全文
posted @ 2017-03-15 19:27 gyhuminyan 阅读(13996) 评论(0) 推荐(4)
摘要: 激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。 阅读全文
posted @ 2017-03-15 19:26 gyhuminyan 阅读(1093) 评论(0) 推荐(1)