摘要: 一、补充padding层 补充:padding层,主要是用0或常数填充,可以自己查看官方文档 二、非线性激活函数 1.Relu函数 输入:N表示batchsize Inplace:是否对原来的结果进行替换 一般采用为False,保留原始数据 图像: 2.sigmoid函数 输入:N表示batchsi 阅读全文
posted @ 2022-05-18 22:10 Trouvaille_fighting 阅读(63) 评论(0) 推荐(0)
摘要: 一、常用池化层 功能:减少模型的计算量 1.最大池化 卷积核区域取最大值作为结果 参数说明 输入输出都是四维:N是batch_size,C是channel ceil_model为True,保留不完整的部分,否则去掉 (下面案例中stride=3) 2.案例 矩阵的池化 点击查看代码 import t 阅读全文
posted @ 2022-05-18 10:29 Trouvaille_fighting 阅读(121) 评论(0) 推荐(0)