随笔分类 - 深度学习
摘要:简介 Faster R-CNN是继R-CNN,Fast R-CNN后基于Region-CNN的又一目标检测力作。Faster R-CNN发表于NIPS 2015。即便是2015年的算法,在现在也仍然有着广泛的应用以及不俗的精度。缺点是速度较慢,无法进行实时的目标检测。 Faster R-CNN是典型
阅读全文
摘要:简介 SegFormer是一种简单高效的Transformer语义分割网络,发表在NeurlPS'21(SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers)上(论文地址)。 在Visio
阅读全文
摘要:简介 Convolutional Block Attention Module(CBAM), 卷积注意力模块。该论文发表在ECCV2018上(论文地址),这是一种用于前馈卷积神经网络的简单而有效的注意力模块。 CBAM融合了通道注意力(channel Attention)和空间注意力(Spatial
阅读全文
摘要:Vision Transformer 的学习与实现 Transformer最初被用于自然语言处理领域,具体可见论文Attention Is All You Need。后来被用于计算机视觉领域,也取得了十分惊艳的结果(An Image Is Worth 16x16 Words: Transformer
阅读全文
摘要:ResNet 背景 在resnet提出之前,认为卷积层和池化层堆叠越多,提取到的图片特征信息就越全,学习效果越好。但是随着网络的加深,容易出现梯度消失和梯度爆炸等问题。 梯度消失:每一层的梯度小于1,反向传播时网络越深,远离输出层的梯度越趋于0。 梯度爆炸:每一层的梯度大于1,反向传播时网络越深,远
阅读全文

浙公网安备 33010602011771号