会员
众包
新闻
博问
AI培训
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
cqut-zhoutao
博客园
首页
新随笔
联系
订阅
管理
2024年3月3日
为什么Transformer块使⽤LayerNorm⽽不是BatchNorm?
摘要: 个人学习使用,侵权删 参考来源: 为什么Transformer要用LayerNorm 为什么Transformer模型使用layernorm而不是batchnorm transformer 为什么使用 layer normalization,而不是其他的归一化方法?
阅读全文
posted @ 2024-03-03 20:20 zhou-snaker
阅读(26)
评论(0)
推荐(0)
编辑