会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
#Header1_HeaderTitle{ font-size:50px }
墨麟非攻
博客园
首页
新随笔
联系
订阅
管理
2019年3月23日
激活函数的比较,sigmoid,tanh,relu
摘要: 1. 什么是激活函数 如下图,在神经元中,输入inputs通过加权、求和后,还被作用了一个函数。这个函数就是激活函数Activation Function 2. 为什么要用激活函数 如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网路有多少层,输出都是输入的线性组合。与没有隐藏层效果相当
阅读全文
posted @ 2019-03-23 14:08 墨麟非攻
阅读(2324)
评论(0)
推荐(0)
公告