上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 25 下一页
摘要: 本文为CenterNet作者发表的,论文提出anchor-free/two-stage目标检测算法CPN,使用关键点提取候选框再使用两阶段分类器进行预测。论文整体思路很简单,但CPN的准确率和推理速度都很不错,比原本的关键点算法更快,源码也会公开,到时可以一试 来源:晓飞的算法工程笔记 公众号 论文 阅读全文
posted @ 2021-01-18 13:32 晓飞的算法工程笔记 阅读(484) 评论(1) 推荐(0)
摘要: 为了解决CornerNet缺乏目标内部信息的问题,提出了CenterNet使用三元组进行目标检测,包含一个中心关键点和两个角点。从实验结果来看,CenterNet相对于CornerNet只增加了少量推理时延,但带来了将近5个点的AP提升 来源:晓飞的算法工程笔记 公众号 论文: CenterNet: 阅读全文
posted @ 2021-01-15 12:17 晓飞的算法工程笔记 阅读(377) 评论(0) 推荐(0)
摘要: 论文提出了CornerNet,通过检测角点对的方式进行目标检测,与当前的SOTA检测模型有相当的性能。CornerNet借鉴人体姿态估计的方法,开创了目标检测领域的一个新框架,后面很多论文都基于CorerNet的研究拓展出新的角点目标检测 来源:晓飞的算法工程笔记 公众号 论文: CornerNet 阅读全文
posted @ 2021-01-14 10:33 晓飞的算法工程笔记 阅读(368) 评论(0) 推荐(0)
摘要: 论文针对当前anchor-free目标检测算法的问题提出了DDBNet,该算法对预测框进行更准确地评估,包括正负样本以及IoU的判断。DDBNet的创新点主要在于box分解和重组模块(D&R)和语义一致性模块,分别用于解决中心关键点的回归不准问题以及中心关键点与目标语义不一致问题。从实验来看,DDB 阅读全文
posted @ 2020-11-24 12:19 晓飞的算法工程笔记 阅读(292) 评论(0) 推荐(0)
摘要: 论文提出了动态ReLU,能够根据输入动态地调整对应的分段激活函数,与ReLU及其变种对比,仅需额外的少量计算即可带来大幅的性能提升,能无缝嵌入到当前的主流模型中 来源:晓飞的算法工程笔记 公众号 论文: Dynamic ReLU 论文地址:https://arxiv.org/abs/2003.100 阅读全文
posted @ 2020-11-08 17:08 晓飞的算法工程笔记 阅读(498) 评论(0) 推荐(0)
摘要: 论文的工作属于深度学习在工业界的应用,借鉴计算机视觉的解决方法,针对机器故障检测的场景提出自适应的APReLU,对故障检测的准确率有很大的提升。论文整体思想应该也可以应用于计算机视觉,代码也开源了,大家可以尝试下 来源:晓飞的算法工程笔记 公众号 论文: Deep Residual Networks 阅读全文
posted @ 2020-11-05 22:22 晓飞的算法工程笔记 阅读(516) 评论(0) 推荐(0)
摘要: 论文提出超参数优化方法AABO,该方法核心基于贝叶斯优化和Sub-Sample方法,能够自适应的搜索最优的anchor设置。从实验结果来看,AABO能够仅通过anchor设置优化,为SOTA目标检测方法带来1.4%~2.4%的性能提升 来源:晓飞的算法工程笔记 公众号 论文: AABO: Adapt 阅读全文
posted @ 2020-10-13 18:03 晓飞的算法工程笔记 阅读(452) 评论(0) 推荐(0)
摘要: 论文提出类特定控制门CSG来引导网络学习类特定的卷积核,并且加入正则化方法来稀疏化CSG矩阵,进一步保证类特定。从实验结果来看,CSG的稀疏性能够引导卷积核与类别的强关联,在卷积核层面产生高度类相关的特征表达,从而提升网络的性能以及可解释性 来源:晓飞的算法工程笔记 公众号 论文: Training 阅读全文
posted @ 2020-10-09 15:15 晓飞的算法工程笔记 阅读(513) 评论(0) 推荐(0)
摘要: 论文提出从IoU指标延伸来的PIoU损失函数,能够有效地提高倾斜目标检测场景下的旋转角度预测和IoU效果,对anchor-based方法和anchor-free方法均适用。另外论文提供了Retail50K数据集,能够很好地用于评估倾斜目标检测算法的性能 来源:晓飞的算法工程笔记 公众号 论文: PI 阅读全文
posted @ 2020-09-09 17:01 晓飞的算法工程笔记 阅读(1177) 评论(0) 推荐(0)
摘要: 论文通过DBTD方法计算过滤阈值,再结合随机剪枝算法对特征值梯度进行裁剪,稀疏化特征值梯度,能够降低回传阶段的计算量,在CPU和ARM上的训练分别有3.99倍和5.92倍的加速效果 来源:晓飞的算法工程笔记 公众号 论文: Accelerating CNN Training by Pruning A 阅读全文
posted @ 2020-09-08 11:33 晓飞的算法工程笔记 阅读(596) 评论(0) 推荐(2)
上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 25 下一页