会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
chease
博客园
首页
新随笔
联系
订阅
管理
2020年9月15日
激活函数
摘要: 1、常用激活函数 Rectified Linear Unit(ReLU) - 用于隐层神经元输出 Sigmoid - 用于隐层神经元输出 Softmax - 用于多分类神经网络输出 Linear - 用于回归神经网络输出(或二分类问题) 常用激活函数介绍参考: https://blog.csdn.n
阅读全文
posted @ 2020-09-15 20:50 chease
阅读(208)
评论(0)
推荐(0)
公告