会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
jimore
博客园
首页
新随笔
联系
订阅
管理
Relu函数的作用
Relu
Relu(Linear rectification function)是深度学习中的一种激活函数
其函数表达式为:f(x)=max(0,x)
其函数图像为:
该函数主要用于cnn卷积神经网络的卷积(Convolution)和池化(MaxPooling)中,因为经过卷积运算和池化运算后的图像矩阵的值有正有负,这难免造成了数据规模变得很大,那么经过Relu函数之后的图像矩阵中的值只留下正数的值。
优点:
1.极大地减少了数据量
2.在一定程度上减少了运算量
3.避免层数增加。
posted @
2022-02-16 16:17
jimore
阅读(
1721
) 评论(
0
)
收藏
举报
刷新页面
返回顶部
公告