随笔分类 -  bak / Faster R-CNN

摘要:我们在训练神经网络模型时,最常用的就是梯度下降,梯度下降有一下几种方式: 1、Batch gradient descent(BGD批梯度下降) 遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。 这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支 阅读全文
posted @ 2019-08-26 10:14 Austin_anheqiao 阅读(219) 评论(0) 推荐(0)
摘要:之前的都是用区域建议算法来产生候选框,还是挺耗时间的,所以Faster R-CNN使用CNN来产生候选框。 Faster-R-CNN算法由两大模块组成: 1.RPN候选框提取模块; 2.Fast R-CNN检测模块。 其中,RPN是全卷积神经网络,用于提取候选框;Fast R-CNN基于RPN提取的 阅读全文
posted @ 2019-08-25 22:06 Austin_anheqiao 阅读(276) 评论(0) 推荐(0)
摘要:训练: 特征图是51x39x256,对该图像的每点考虑9个窗口:三种候选面积(128,256,512) x 三种尺度(1:1,1:2,2:1)。这些候选窗口称为anchors。如下图: 如果图片尺寸w*h,特征图的尺寸是w/r ×h/r(由pool5层得到的尺寸,计算后得到这个r)。r是下采样率(s 阅读全文
posted @ 2019-08-25 22:06 Austin_anheqiao 阅读(1339) 评论(0) 推荐(0)