会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
The Blog
Do not go gentle into that good night.
Old age should burn and rave at close of day.
Rage, rage against the dying light.
博客园
首页
新随笔
联系
订阅
管理
2025年9月11日
LLM中的激活函数
摘要: ReLU(Rectified Linear Unit) 表达式:\(ReLU(x)=max(0,x)\) 在最早期的一些神经网络和小型NLP模型中,ReLU是出现频次最高的激活函数,但是在Transformer出现后,ReLU的一些问题也随之被放大,在\(x<0\)时,ReLU将梯度完全截断,在大规
阅读全文
posted @ 2025-09-11 22:46 Luna-Evelyn
阅读(60)
评论(0)
推荐(0)
公告