会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
bluesky0318
博客园
首页
博问
闪存
新随笔
订阅
管理
2019年9月6日
Activation functions on the Keras
摘要: sigmoid tanh tanh函数定义如下: 激活函数形状: ReLU 大家族 ReLU softmax 函数 softmax是一个函数,其主要用于输出节点的分类,它有一个特点,所以的值相加会等于1。 具体例子,可以举图像识别,比如图像识别数字,0~9, 线设置图像识别的输出数字为10个输出节点
阅读全文
posted @ 2019-09-06 14:59 bluesky0318
阅读(264)
评论(0)
推荐(0)