摘要: batchnormalization和layernormalization,主要区别在于 normalization的方向不同。 normalization Normalization:规范化或标准化,就是把输入数据X,在输送给神经元之前先对其进行平移和伸缩变换,将X的分布规范化成在固定区间范围的标 阅读全文
posted @ 2024-04-11 23:37 乐池 阅读(107) 评论(0) 推荐(0)