会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
dahu的菜园子
CnBlogs
Home
New Post
Contact
Admin
Subscription
2017年6月26日
深度学习相关术语
激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。
Read More
posted @ 2017-06-26 10:08 dahu1
Views(445)
Comments(0)
Diggs(0)
公告