随笔分类 -  综合

摘要:bn和ln的本质区别: batch normalization是纵向归一化,在batch的方向上对同一层每一个神经元进行归一化,即同一层每个神经元具有不同的均值和方差。 layer normalization 是横向归一化,即同一层的所有神经元具有相同的均值和方差。 bn和ln的使用区别: 1.如果 阅读全文
posted @ 2019-08-14 15:46 太阳雨~ 阅读(1814) 评论(0) 推荐(0)
摘要:介绍 数据 快速开始 模块 阅读全文
posted @ 2019-08-10 16:05 太阳雨~ 阅读(4319) 评论(0) 推荐(0)