会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Arjen_Z
博客园
首页
新随笔
联系
订阅
管理
2018年11月2日
神经网络框架
摘要: 一、激活函数 线性操作分类能力不强,而非线性表达可以分开数据。 神经网络中隐层就是增加了激活函数,使得神经网络表达出更强大的效果。 Sigmoid可作为激活函数,但容易引起梯度消失(导数趋近于0)。 max(0,x)就是ReLU激活函数,可以解决梯度消失问题,导数简单,已经常用的神经网络激活函数。
阅读全文
posted @ 2018-11-02 11:29 zarjen
阅读(490)
评论(0)
推荐(0)
公告