上一页 1 2 3 4 5 6 7 8 9 ··· 53 下一页

2022年8月31日

摘要: 参考 1. 梯度下降法; 完 阅读全文
posted @ 2022-08-31 19:18 鹅要长大 阅读(13) 评论(0) 推荐(0) 编辑
摘要: Paper: http://arxiv.org/abs/2110.06864 Code: https://github.com/ifzhang/ByteTrack Leaderboard: ​https://motchallenge.net/result 参考 1. ECCV2022 ByteTra 阅读全文
posted @ 2022-08-31 19:17 鹅要长大 阅读(320) 评论(0) 推荐(0) 编辑
摘要: 作者提出focal loss的出发点也是希望one-stage detector可以达到two-stage detector的准确率,同时不影响原有的速度。既然有了出发点,那么就要找one-stage detector的准确率不如two-stage detector的原因,作者认为原因是:样本的类别 阅读全文
posted @ 2022-08-31 19:15 鹅要长大 阅读(162) 评论(0) 推荐(0) 编辑
摘要: 几种IoU的理解 IoU IOU是用来衡量两个边界框的重叠程度的。 GIoU 论文的地址为:https://arxiv.org/abs/1902.09630github代码地址:https://github.com/generalized-iou这篇论文出自CVPR2019,这篇论文提出了一种优化边 阅读全文
posted @ 2022-08-31 19:14 鹅要长大 阅读(123) 评论(0) 推荐(0) 编辑
摘要: 前言 匈牙利算法是一种在多项式时间内求解任务分配问题的组合优化算法,匈牙利算法(Hungarian Algorithm)与KM算法(Kuhn-Munkres Algorithm)是做多目标跟踪的小伙伴很容易在论文中见到的两种算法。他们都是用来解决多目标跟踪中的数据关联问题。匈牙利算法与KM算法都是为 阅读全文
posted @ 2022-08-31 19:14 鹅要长大 阅读(815) 评论(0) 推荐(0) 编辑

2022年8月17日

摘要: 前言 一般用于深度学习比赛中的一种trick。 TTA(test time augmentation) 数据增强通常在训练阶段进行,目前一些文献在测试时进行数据增强,在分割、分类、检测等场景都取得了不错的效果。 测试时增强,指的是在推理(预测)阶段,将原始图片进行水平翻转、垂直翻转、对角线翻转、旋转 阅读全文
posted @ 2022-08-17 19:10 鹅要长大 阅读(474) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-08-17 19:10 鹅要长大 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 前言 想要获取之前某个目录的有序文件,除了文件名称,其他的比如文件内容、创建时间等都发生了改变,不清楚使用os.listdir是否会改变前后的文件排序。 可以使用帮助文档查看os.listdir的说明 help(os.listdir) output The list is in arbitrary 阅读全文
posted @ 2022-08-17 19:08 鹅要长大 阅读(1202) 评论(0) 推荐(0) 编辑
摘要: 前言 cmd ./darknet detector demo cfg/tfl.data cfg/yolov3-tiny-tfl.cfg backup/yolov3-tiny-tfl_500000.weights data/tfl.avi error Floating point exception 阅读全文
posted @ 2022-08-17 19:08 鹅要长大 阅读(430) 评论(0) 推荐(0) 编辑
摘要: super() 函数是用于调用父类(超类)的一个方法。 super() 是用来解决多重继承问题的,直接用类名调用父类方法在使用单继承的时候没问题,但是如果使用多继承,会涉及到查找顺序(MRO)、重复调用(钻石继承)等种种问题。 MRO 就是类的方法解析顺序表, 其实也就是继承父类方法时的顺序表。 P 阅读全文
posted @ 2022-08-17 19:08 鹅要长大 阅读(21) 评论(0) 推荐(0) 编辑
摘要: darknet的网络结构使用network结构体进行保存,network的构建过程主要包括以下几个函数: load_network(src/networks.c) > parse_network_cfg(src/parser.c) >make_network(src/network.c) >pars 阅读全文
posted @ 2022-08-17 19:05 鹅要长大 阅读(31) 评论(0) 推荐(0) 编辑
摘要: 参考 1. Python的日志模块logging的使用; 完 阅读全文
posted @ 2022-08-17 19:05 鹅要长大 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 前言 博主运行python代码的时候出现了warning,主要是模块版本引起的。 drawlog.py warning drawlog.py:76: FutureWarning: The error_bad_lines argument has been deprecated and will be 阅读全文
posted @ 2022-08-17 19:05 鹅要长大 阅读(1485) 评论(0) 推荐(1) 编辑
摘要: 前言 参考 1. 旋转卡壳系列博客; 2. 旋转卡壳(1)--求凸包(点集)直径 poj 2187; 完 阅读全文
posted @ 2022-08-17 19:04 鹅要长大 阅读(34) 评论(0) 推荐(0) 编辑

2022年8月10日

摘要: 前言 一、名词解释 目前优化神经网络的方法都是基于BP,即根据损失函数计算的误差通过梯度反向传播的方式,指导深度网络权值的更新优化。其中将误差从末层往前传递的过程需要链式法则(Chain Rule)的帮助,因此反向传播算法可以说是梯度下降在链式法则中的应用。 而链式法则是一个连乘的形式,所以当层数越 阅读全文
posted @ 2022-08-10 10:33 鹅要长大 阅读(447) 评论(0) 推荐(0) 编辑

2022年8月8日

摘要: 前言 使用labelme,想要改变之前标注的label名称,使用的是一个新的类别名称,比如原来是off_red/ off_green,想要将这些类别名称全部改为off,使用labelme的过程中出错,故此记录。 labelme的版本 conda list | grep labelme labelme 阅读全文
posted @ 2022-08-08 18:41 鹅要长大 阅读(397) 评论(0) 推荐(0) 编辑
摘要: 参数初始化的理想状态是参数正负各半,期望为0。 正确的初始化方法应该避免指数级地减小或放大输入值的大小,防止梯度“饱和”。 对于权值的初始化,Glorot提出两个准则: 各个层激活值的方差保持不变(正向传播) 各个层的梯度值的方差保持不变(反向传播) 参考 1. 神经网络参数初始化(MSRA、Xav 阅读全文
posted @ 2022-08-08 18:41 鹅要长大 阅读(106) 评论(0) 推荐(0) 编辑
摘要: 前言 最近运行darknet项目,重新划分数据集进行训练,一定迭代次数之后loss数值突然暴增,然后突然变为Nan,之后一直为Nan,与之前训练相比,只有数据集重新划分,其他源码都没有变动。 问题解释 训练过程数据几乎都是nan,查看train log发现迭代到997次时loss突然暴增,之后迭代到 阅读全文
posted @ 2022-08-08 18:40 鹅要长大 阅读(495) 评论(0) 推荐(0) 编辑
摘要: 前言 Yolov3网络的输入默认为416x416,然后待检测的图片不总是416x416,这就产生了如何将待检测图片,在不破坏特征的情况下缩放至416x416,并对应在网络产生预测框后,如何将416x416图中的预测框还原至原图的问题。 预处理过程letterbox_image letterbox_i 阅读全文
posted @ 2022-08-08 18:39 鹅要长大 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 前言 参考 1. 深度学习中的动量(momentum); 完 阅读全文
posted @ 2022-08-08 18:39 鹅要长大 阅读(246) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 53 下一页

导航