摘要: 1、常用的relu和sigmoid relu: relu函数对图像的作用不是很明显 sigmoid: 非线性激活就是能够保留图像中那些曲线特征 '''非线性激活'''import torchimport torchvisionfrom torch import nnfrom torch.nn imp 阅读全文
posted @ 2023-02-20 21:25 bokeAR 阅读(45) 评论(0) 推荐(0)
摘要: 1、打开官网 torch.nn Pooling Layers 最大池化,平均池化,自适应池化 最常用的是MaxPool2d 2、池化操作::: 默认情况下 ceil_mode 是False 3、为什么要进行最大池化?最大池化的作用? 保留输入图像的特征 ,同时减少数据量,加速训练。 阅读全文
posted @ 2023-02-20 16:49 bokeAR 阅读(85) 评论(0) 推荐(0)
摘要: 1、去pytorch官网 doc官方文档 pytorch torch.nn Convolution.Layers dilation:卷积核中每一个对应位的距离 groups:通常是1,如果是别的数字代表 分组卷积 很少用 bias:偏执,通常设置为 True,代表是否对卷积后的结果再 加/减 一个常 阅读全文
posted @ 2023-02-20 14:27 bokeAR 阅读(65) 评论(0) 推荐(0)