张浩鹏  

2021年10月23日

摘要: BAM: Bottleneck Attention Module 作者提出了一个简单但是有效的Attention 模型—BAM,它可以结合到任何前向传播卷积神经网络中,通过两个分离的路径 channel和spatial, 得到一个Attention Map. 整体结构图如下: 作者将BAM块放在了R 阅读全文
posted @ 2021-10-23 17:48 张浩鹏 阅读(815) 评论(0) 推荐(0) 编辑

2021年10月17日

摘要: 《Selective Kernel Networks》 神经科学界认为视皮层神经元的感受野大小受刺激的调节,即对不同刺激,卷积核的大小应该不同。 本篇论文中提出了一种在CNN中对卷积核的动态选择机制,该机制允许每个神经元根据输入信息的多尺度自适应地调整其感受野(卷积核)的大小。设计了一个称为选择性内 阅读全文
posted @ 2021-10-17 15:19 张浩鹏 阅读(189) 评论(0) 推荐(0) 编辑

2021年10月4日

摘要: MobileNetV1 MobileNetV1核心思想是采用深度可分离卷积操作。在相同的权值参数数量的情况下,相较标准卷积操作,可以减少数倍的计算量,从而达到提升网络运算速度的目的。 深度可分离卷积的构成: 常规卷积操作: 深度卷积: 与标准卷积网络不一样的是,深度卷积将卷积核拆分成为但单通道形式, 阅读全文
posted @ 2021-10-04 19:49 张浩鹏 阅读(81) 评论(0) 推荐(0) 编辑

2021年9月24日

摘要: 经典卷积神经网络模型 AlexNet 主要改进 丢弃法 ReLU MaxPooling VGG 主要改进 VGG使用可重复使用的卷积块来构建深度卷积神经网络 不同的卷积块个数和超参数可以得到不同复杂度的变种 NIN NIN块 一个卷积层后跟两个全连接层,即步幅为1的无填充的$1×1$卷积层,输出形状 阅读全文
posted @ 2021-09-24 19:49 张浩鹏 阅读(108) 评论(1) 推荐(0) 编辑

2021年9月19日

摘要: 深度学习计算 层和块 层 通过实例化nn.Sequential来构建的模型,层的执行顺序是作为参数传递的。 import torch from torch import nn from torch.nn import functional as F net = nn.Sequential(nn.Li 阅读全文
posted @ 2021-09-19 22:35 张浩鹏 阅读(102) 评论(0) 推荐(0) 编辑

2021年9月12日

摘要: 多层感知机 线性回归+基础优化方法 1. 模型 线性回归假设输出与各个输入是线性关系,我们需要建立基于输入$x_1$到$x_n$来计算输出$y$的表达式,也就是模型。 2. 模型训练 通过数据来寻找特定的模型参数值,使模型在数据上的误差尽可能小。这个过程叫模型训练。 3. 损失函数 损失函数能够量化 阅读全文
posted @ 2021-09-12 20:28 张浩鹏 阅读(800) 评论(1) 推荐(0) 编辑

2021年9月2日

摘要: 第一次作业:深度学习基础 本文代码使用Google的colab作为运行环境。 使用代码安装实验所需的d2l库 !pip install git+https://github.com/d2l-ai/d2l-zh@release ##与深度学习相关的数据操作 ###1.张量基本操作 torch.aran 阅读全文
posted @ 2021-09-02 10:48 张浩鹏 阅读(187) 评论(1) 推荐(0) 编辑