基本概念

RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出

  • 基本RNN:循环网络的基本构成
  • LSTM:突破性进展的长短期记忆网络
  • GRU:新式的Cell模块单元
  • NTM:更大记忆体模型的探索

循环神经网络的隐藏层的值s不仅仅取决于当前这次的输入x,还取决于上一次隐藏层的值s。权重矩阵 W就是隐藏层上一次的值作为这一次的输入的权重。这个就是实现时间记忆功能的方法

1. 什么是端到端的深度学习

简而言之,以前有一些数据处理系统或者学习系统,它们需要多个阶段的处理。那么端到端深度学习就是忽略所有这些不同的阶段,用单个神经网络代替它。

2. batch_size (批大小)

是指在训练神经网络时,每次输入给模型的样本数。在深度学习中,通常采用随机梯度下降(SGD)等优化算法来更新模型的参数,而每次更新需要计算损失函数对参数的梯度,这个计算的过程需要消耗大量的计算资源。为了提高计算效率,通常会将数据分成多个小批次进行训练,每次只计算一个小批次的梯度,从而减少了计算量,加快了训练速度。

具体来说,在训练神经网络时,通常会将数据集分成若干个小批次,每个小批次包含batch_size个样本。然后,每次从数据集中随机选择一个小批次进行训练,计算这个小批次的损失函数和梯度,然后更新模型的参数。这个过程被称为一个epoch,也就是遍历了整个数据集一次。通常情况下,需要进行多个epoch的训练才能得到较好的模型效果

3. 特征金字塔

两种构建方式:·

  1. 通过多次降采样生成不同分辨率的层构成,这种方式应用比较广,比较常见的应用有SSD, FPN, YOLO_v3, ...此外还有很多。

  2. 通过多条具有不同空洞率的空洞卷积的支路来构建。目前这方面的应用有ASPP, RFP等

FPN应用于Fast RCNN

  主要用于ROI Pooling 层

  不同尺度的ROI使用不同特征层作为ROl pooling层的输入:

    $k= \left \lfloor  k_{0}+log_{2}(\sqrt{wh}/224)\right \rfloor $

  224是ImageNet的标准输入,k0是基准值,设置为4,使用P4的特征层。w和h是ROI区域的长和宽,假设ROI是112* 112的大小,那么k = k0-1 = 41 =3,意味着该ROI应该使用P3的特征层。也就是说不同大小的Rol会映射到不同金字塔层级的特征图谱上。总的来说。越小的Rol,会映射到更浅层的特征图谱上,因为太深的图谱可能已经将小物体信息过滤掉了

4. 1*1 卷积作用

  升维/ 降维

  1:输入通道个数 等于 卷积核通道个数

  2:卷积核个数 等于 输出通道个数

posted @ 2022-11-17 22:02  dunimaa  阅读(159)  评论(0)    收藏  举报