随笔分类 -  论文学习

摘要:SWA 的工作原理。它只保存两个模型,而不是许多模型的集成: 第一个模型保存模型权值的平均值(WSWA)。在训练结束后,它将是用于预测的最终模型。 第二个模型(W)将穿过权值空间,基于周期性学习率规划探索权重空间。 SWA权重更新公式 在每个学习率周期的末尾,第二个模型的当前权重将用来更新第一个模型 阅读全文
posted @ 2019-08-15 15:31 铃铃漆007 阅读(570) 评论(0) 推荐(0)
摘要:9月14日,2018年视觉目标跟踪挑战赛(Visual-Object-Tracking Challenge 2018)的结果在ECCV Workshop上揭晓。VOT2018共设三项任务:Baseline challenge(主挑战赛)、Real-time challenge(实时目标跟踪挑战赛)、 阅读全文
posted @ 2019-08-14 18:51 铃铃漆007 阅读(981) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2019-08-13 17:21 铃铃漆007 阅读(0) 评论(0) 推荐(0)
摘要:相关参考链接当时没保存,现在找不到了,如有冒犯请告知,侵删。 Pedestrian-Attribute-Recognition 一些基于VesPA,WPAL的行人属性识别方法。 PA-100K和RAP用于训练。 关于行人属性的开源代码资源,主要就 Weakly-supervised Learning 阅读全文
posted @ 2019-08-13 17:06 铃铃漆007 阅读(548) 评论(0) 推荐(0)
摘要:1.mAP mAP的全称是mean Average Precision,意为平均精度均值(如果按照原来的顺利翻译就是平均均值精度)。这个指标是多目标检测和多标签图像分类中长常用的评测指标,因为这类任务中的标签大多不止一个,所以不能用普通的单标签图像的分类标准,也就是mean Precision,平均 阅读全文
posted @ 2019-08-12 19:31 铃铃漆007 阅读(10099) 评论(0) 推荐(0)
摘要:A Hybrid Data Association Framework for Robust Online Multi-Object Tracking 一种用于鲁棒在线多目标跟踪的混合数据关联框架 摘要 全局优化算法在基于数据关联的多目标跟踪中表现出了令人印象深刻的性能,但处理在线数据仍然是一个难以 阅读全文
posted @ 2019-07-12 16:01 铃铃漆007 阅读(187) 评论(0) 推荐(0)
摘要:作者写道: 有幸在本届的VOT 2018 主赛中,我们的参赛方案Multi-solution Fusion for Visual Tracking(MFT)获得第一名的成绩,通过结果来看,MFT无论在公开序列还在隐藏序列鲁棒性都稳居第一,也验证了我们本次在算法鲁棒性所做出的努力,另外我们的RCO也获 阅读全文
posted @ 2019-07-12 15:31 铃铃漆007 阅读(588) 评论(0) 推荐(0)
摘要:解读一:Features for Multi-Target Multi-Camera Tracking and Re-identification Abstract MTMCT:从多个摄像头采集的视频中跟踪多个人。 Re-id:从一系列图片中检索与一张被查询图片相似的图片。 我们用CNN为MTMCT 阅读全文
posted @ 2019-07-12 15:20 铃铃漆007 阅读(1534) 评论(0) 推荐(0)
摘要:转自知乎 这货就是基于 SE-Net [5]中的 Squeeze-and-Excitation module 来进行进一步拓展 具体来说,文中把 channel-wise attention 看成是教网络 Look 'what’;而spatial attention 看成是教网络 Look 'whe 阅读全文
posted @ 2019-07-12 13:49 铃铃漆007 阅读(1379) 评论(0) 推荐(0)
摘要:If you fail to install and run this tracker, please email me (zhangyunhua@mail.dlut.edu.cn) Introduction This repository includes tensorflow code of M 阅读全文
posted @ 2019-07-12 13:42 铃铃漆007 阅读(950) 评论(0) 推荐(0)
摘要:在人体语义分割中,像素级别的分类损失在其低级局部不一致性和高级语义不一致性方面存在缺陷。对抗性网络的引入使用单个鉴别器来解决这两个问题。然而,两种类型的解析不一致是由不同的机制产生的,因此单个鉴别器很难解决它们。为解决这两种不一致问题,本文提出了宏观 - 微观对抗网络(MMAN)。它有两个鉴别器,一个鉴别器Macro D作用于低分辨率标签图并且惩罚语义不一致性,例如错位的身体部位。另一个鉴别器Micro D专注于高分辨率标签映射的多个像素块,以解决局部不一致性,例如图片模糊和裂口。与传统的对抗性网络相比,MMAN不仅明确地强制实现了局部和语义一致性,而且避免了处理高分辨率图像时对抗性网络的收敛性差的问题。在我们的实验中,我们验证了两个鉴别器在提高人类解析准确性方面是相互补充的。与现有技术方法相比,所提出的框架能够产生有竞争力的解析性能,即分别在LIP和PASCAL-Person-Part上的mIoU = 46.81%和59.91%。在相对较小的数据集PPSS上,我们的预训练模型展示了令人印象深刻的泛化能力。该代码可在https://github.com/RoyalVane/MMAN上公 阅读全文
posted @ 2018-10-21 18:37 铃铃漆007 阅读(1192) 评论(0) 推荐(0)