会员
周边
新闻
博问
AI培训
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
LOADING . . .
qizhou
博客园
首页
新随笔
联系
管理
2020年8月2日
神经网络中常用的激活函数
摘要: ReLu $\max(0,z)$ 修正线性单元,是最常用的非线性映射函数。常在神经网络隐层中使用,因为它在反向传播中计算导数十分方便。导数为: $\left\{\begin{aligned}&1,z\ge0\\&0,z<0\end{aligned}\right.$ softplus $\log(1+
阅读全文
posted @ 2020-08-02 11:27 颀周
阅读(814)
评论(0)
推荐(2)
编辑
公告
很高兴能帮到你~
点赞