会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
ChevisZhang
博客园
首页
新随笔
联系
订阅
管理
2020年5月23日
CV第六课 激活函数/预处理/权重初始化/批归一化BN/
摘要: 昨天写的因为没有及时发布,又丢失了,现在重写一遍重点。 1. activation functions 1) 总结:一般都用ReLu,因为在x>0时,不会出现梯度消失 可以尝试Leakly ReLu ELU Maxout(参数加倍) tanh(0-centered) 不要用Sigmoid 2)Sig
阅读全文
posted @ 2020-05-23 15:18 ChevisZhang
阅读(434)
评论(0)
推荐(0)
公告