会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
lipu123
博客园
首页
新随笔
联系
订阅
管理
2023年7月6日
激活函数技巧
摘要: ReLU激活函数只能在隐藏层中使用。 Sigmoid/Logistic和Tanh函数不应该用于隐藏层,因为它们会在训练过程中引起问题。 Swish函数用于深度大于40层的神经网络会好很多。 输出层的激活函数是由你要解决的预测问题的类型决定的。以下是一些需要记住的基本原则: 回归-线性激活函数 二元分
阅读全文
posted @ 2023-07-06 21:46 lipu123
阅读(37)
评论(0)
推荐(0)
公告