摘要: 首先根据源文档中的ReLU(x)=max(0,x),得出结论。大于0的数值不变,小于0的数据变成0。 补充:这里需要注意的是 ReLU并没有限制数据的大小。 这是对应的文档链接:https://pytorch.org/docs/1.2.0/nn.html#torch.nn.ReLU Ps:需要自取。 阅读全文
posted @ 2021-11-24 16:59 我太想努力了 阅读(2020) 评论(0) 推荐(0)
摘要: Batch Normalization 批量归一化 具体的运算过程: 假设经过卷积计算过后得到的feature map的尺寸为 2*3*2*2。 其中2代表的是batch的大小,3代表的是通道channel的个数,2*2代表的是feature map的长和宽。 对应图片如下所示: 过程:我们要对ba 阅读全文
posted @ 2021-11-24 16:40 我太想努力了 阅读(332) 评论(0) 推荐(1)