会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
太阳雨~
博客园
首页
新随笔
联系
订阅
管理
随笔分类 -
综合
batch normalization 与 layer normalization
摘要:bn和ln的本质区别: batch normalization是纵向归一化,在batch的方向上对同一层每一个神经元进行归一化,即同一层每个神经元具有不同的均值和方差。 layer normalization 是横向归一化,即同一层的所有神经元具有相同的均值和方差。 bn和ln的使用区别: 1.如果
阅读全文
posted @
2019-08-14 15:46
太阳雨~
阅读(1814)
评论(0)
推荐(0)
nlp四大任务(分类、匹配、序列标注、文本生成)集成项目
摘要:介绍 数据 快速开始 模块
阅读全文
posted @
2019-08-10 16:05
太阳雨~
阅读(4319)
评论(0)
推荐(0)
公告