会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
冬色
GitHub: https://github.com/cnlinxi
博客园
首页
新随笔
联系
订阅
管理
2018年8月15日
神经网络中的梯度消失
摘要: 只要神经元足够,神经网络可以以任意精度逼近任意函数。为了拟合非线性函数,需要向神经网络中引入非线性变换,比如使用$sigmoid$激活函数: \[ sigmoid(x)=\frac{1}{1+e^{-x}} \] $sigmoid(x)\(可简写为\)\sigma(x)\(,该函数可以将实数压缩到开
阅读全文
posted @ 2018-08-15 13:00 冬色
阅读(22571)
评论(0)
推荐(0)
公告