摘要:
前面几节的网络骨架, 如VGGNet和ResNet等, 虽从各个角度出发提升了物体检测性能, 但究其根本是为ImageNet的图像分类任务而设计的。 而图像分类与物体检测两个任务天然存在着落差, 分类任务侧重全图的特征提取, 深层的特征图分辨率很低; 而物体检测需要定位出物体位置, 特征图分辨率不宜 阅读全文
posted @ 2020-09-27 19:53
赵家小伙儿
阅读(444)
评论(0)
推荐(0)
摘要:
为了增强语义性, 传统的物体检测模型通常只在深度卷积网络的最后一个特征图上进行后续操作, 而这一层对应的下采样率(图像缩小倍数) 通常又比较大, 如16、 32, 造成小物体在特征图上的有效信息较少, 小物体的检测性能会急剧下降, 这个问题也被称为多尺度问题. 解决多尺度问题的关键在于如何提取多尺度 阅读全文
posted @ 2020-09-25 20:00
赵家小伙儿
阅读(437)
评论(0)
推荐(0)
摘要:
1. 漏定位的面单样本训练+测试统计 人工标注面单最佳分割阈值表 线性回归模型 表1-2 注: 1)100个人工标注的样本训练,每个样本包含4个特征(依次:原样本灰度图的灰度均值和全局Otsu值,强光修复后灰度图像的灰度均值及全局Otsu值); 2)测试的数据是从训练样本中随机挑选的5组样本,目的是 阅读全文
posted @ 2020-09-24 16:58
赵家小伙儿
阅读(501)
评论(0)
推荐(0)
摘要:
上一节的ResNet通过前层与后层的“短路连接”(Shortcuts) , 加强了前后层之间的信息流通, 在一定程度上缓解了梯度消失现象, 从而可以将神经网络搭建得很深。 更进一步, 本节的主角DenseNet最大化了这种前后层信息交流, 通过建立前面所有层与后面层的密集连接, 实现了特征在通道维度 阅读全文
posted @ 2020-09-23 20:50
赵家小伙儿
阅读(889)
评论(0)
推荐(0)
摘要:
1. VGGNet网络结构的改进点总结: 1)使用了更小的3*3卷积核,和更深的网络。两个3*3卷积核的堆叠相对于5*5卷积核的视野,三个3*3卷积核的堆叠相当于7*7卷积核的视野。这样一方面可以有更少的参数(3个堆叠的3*3结构只有7*7结构参数数量的(3*3*3)/(7*7)=55%);另一方面 阅读全文
posted @ 2020-09-22 20:32
赵家小伙儿
阅读(186)
评论(0)
推荐(0)
摘要:
VGGNet与Inception出现后, 学者们将卷积网络不断加深以寻求更优越的性能, 然而随着网络的加深, 网络却越发难以训练, 一方面会产生梯度消失现象; 另一方面越深的网络返回的梯度相关性会越来越差,接近于白噪声, 导致梯度更新也接近于随机扰动。 ResNet(Residual Network 阅读全文
posted @ 2020-09-22 19:05
赵家小伙儿
阅读(473)
评论(0)
推荐(0)
摘要:
一般来说, 增加网络的深度与宽度可以提升网络的性能, 但是这样做也会带来参数量的大幅度增加, 同时较深的网络需要较多的数据, 否则容易产生过拟合现象。 除此之外, 增加神经网络的深度容易带来梯度消失的现象。 在2014年的ImageNet大赛上, 获得冠军的Inception v1(又名GoogLe 阅读全文
posted @ 2020-09-17 20:18
赵家小伙儿
阅读(295)
评论(0)
推荐(0)
摘要:
delivery_analyze.csv文件中提供了4个输入数据,一个标签数据; 1 49.986721,50,48.862217,49,34 2 23.480339,63,22.087894,23,45 3 47.97068,121,38.859943,44,74 4 61.894985,117, 阅读全文
posted @ 2020-09-17 18:26
赵家小伙儿
阅读(301)
评论(0)
推荐(0)
摘要:
参考: https://blog.csdn.net/shareviews/article/details/83040730 阅读全文
posted @ 2020-09-17 14:45
赵家小伙儿
阅读(118)
评论(0)
推荐(0)
摘要:
1. 走向深度:VGGNet 随着AlexNet在2012年ImageNet大赛上大放异彩后, 卷积网络进入了飞速的发展阶段, 而2014年的ImageNet亚军结构VGGNet(Visual Geometry Group Network) 则将卷积网络进行了改良, 探索了网络深度与性能的关系, 用 阅读全文
posted @ 2020-09-15 18:17
赵家小伙儿
阅读(313)
评论(0)
推荐(0)