会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Fate0729
当你的才华还撑不起你的野心时,那你就应该静下心来学习。当你的经济还撑不起你的梦想时,那你就应该踏实的去工作!
博客园
首页
新随笔
订阅
管理
2019年4月19日
tensorflow中常用激活函数和损失函数
摘要: 激活函数 各激活函数曲线对比 常用激活函数: tf.sigmoid() tf.tanh() tf.nn.relu() tf.nn.softplus() tf.nn.softmax() tf.nn.dropout() tf.nn.elu() 各激活函数优缺点 sigmoid函数 优点:在于输出映射在(
阅读全文
posted @ 2019-04-19 18:18 Fate0729
阅读(3303)
评论(0)
推荐(0)
公告