摘要:
激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。 阅读全文
posted @ 2017-03-15 19:27
gyhuminyan
阅读(13996)
评论(0)
推荐(4)
摘要:
激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。 阅读全文
posted @ 2017-03-15 19:26
gyhuminyan
阅读(1093)
评论(0)
推荐(1)

浙公网安备 33010602011771号