摘要: BAM: Bottleneck Attention Module 1.提出了一种可以结合到任何前向传播卷积神经网络中的注意力模块。 2.整体网络结构:作者将BAM模块加载了Resnet中的每个stage之间,用于消除低层次特征,聚焦于明确的目标。 3.BAM块: (1)Channel attenti 阅读全文
posted @ 2021-10-25 00:01 glysw 阅读(139) 评论(0) 推荐(0)
摘要: 一.Selective Kernel Networks 1.介绍: SKNet是SENet的加强版,让每一个神经元能够动态的调整感受野的大小。 2.大体流程: 1.Split 首先对原本C*H*W的输入经过多个(自己定义,图中为3个)大小不同的卷积核得到U1,U2,U3三个特征图。 注意,这里涉及了 阅读全文
posted @ 2021-10-17 10:53 glysw 阅读(96) 评论(0) 推荐(0)
摘要: 一:MobileNets:Efficient Convolutional Neural Networks for Mobile Vision Applications 1.论文地址:https://arxiv.org/pdf/1704.04861.pdf 2.本篇论文提出一种网络架构,允许开发人员专 阅读全文
posted @ 2021-09-28 10:32 glysw 阅读(142) 评论(0) 推荐(0)
摘要: 一:ALexNet 可以理解为更深、更大的LeNet,主要改进:丢弃法、ReLu、MaxPooling 1.AlexNet 架构 2.代码实现: (1).网路构建: net = nn.Sequential( nn.Conv2d(1, 96, kernel_size=11, stride=4, pad 阅读全文
posted @ 2021-09-26 22:04 glysw 阅读(189) 评论(1) 推荐(0)
摘要: net = torch.nn.Sequential( Reshape(), nn.Conv2d(1, 6, kernel_size=5, padding=2), nn.Sigmoid(), nn.AvgPool2d(kernel_size=2, stride=2), nn.Conv2d(6, 16, 阅读全文
posted @ 2021-09-19 11:27 glysw 阅读(210) 评论(1) 推荐(0)
摘要: 一.线性回归从0开始实现: 1. (1)生成数据集 %matplotlib inline import random import torch !pip install d2l from d2l import torch as d2l def synthetic_data(w, b, num_exa 阅读全文
posted @ 2021-09-12 20:47 glysw 阅读(389) 评论(1) 推荐(0)
摘要: 一.数据操作及实现: 1.数组: 1).对于一个四维数组,可以简单理解为一个RGB图片的批量(批量大小*宽*高*通道) 2).对于一个五维数组,可以理解为一个视频批量(批量大小*时间*宽*高*通道) 3).访问元素方法: [::3,::2]:表示从第零行到最后一行每3行一跳,从第0列到最后一列,每2 阅读全文
posted @ 2021-09-05 19:45 glysw 阅读(158) 评论(1) 推荐(0)