会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
不积跬步无以至千里
研究领域:深度学习,图像处理
联系方式:vladimirputin@foxmail.com
不必高看自己,也不必贬低自己
博客园
首页
新随笔
联系
管理
随笔分类 -
激活函数
Swish激活函数之SiLU
摘要:SiLU(Swish)(YOLOv5 6.0之后) β = 1就是SiLU 优点:ReLU有无上界和有下界的特点,而Swish相比ReLU又增加了平滑和非单调的特点,这使得其在ImageNet上的效果更好。 缺点:引入了指数函数,增加了计算量.
阅读全文
posted @
2023-07-07 08:41
海_纳百川
阅读(1512)
评论(0)
推荐(0)
Mish激活函数
摘要:前言 人们对激活函数都在不断探究,而现在广泛应用的激活函数通常是relu,tanh这两种 但是relu在负值的时候直接截断 梯度下降的不够平滑 因而有团队提出一种新的激活函数来进行优化 Mish激活函数 Mish激活函数的表达式为 Mish = x*tanh(ln(1+e^x)) 使用matplot
阅读全文
posted @
2023-07-06 16:43
海_纳百川
阅读(1095)
评论(0)
推荐(0)
深度学习中常用的激活函数
摘要:
阅读全文
posted @
2023-07-06 16:40
海_纳百川
阅读(18)
评论(0)
推荐(0)
公告
本站总访问量
次