会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
mashuai 的博客(base成都)
学习,记录,并祝愿家人都健康平安
博客园
首页
新随笔
联系
订阅
管理
2018年4月19日
Coursera, Deep Learning 1, Neural Networks and Deep Learning - week3, Neural Networks Basics
摘要: NN representation 这一课主要是讲3层神经网络 下面是常见的 activation 函数.sigmoid, tanh, ReLU, leaky ReLU. Sigmoid 只用在输出0/1 时候的output layer, 其他情况基本不用,因为tanh 总是比sigmoid 好.
阅读全文
posted @ 2018-04-19 23:14 mashuai_191
阅读(403)
评论(0)
推荐(0)
公告