随笔分类 -  Deep Learning

摘要:(部分内容转载自网络,有修改) 1. 激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 阅读全文
posted @ 2018-06-26 15:33 崔小秋 阅读(1275) 评论(0) 推荐(0)