上一页 1 2 3 4 5 6 7 8 9 10 ··· 31 下一页
摘要: YOLOv5 小目标检测、无人机视角小目标检测 1、图片分割、标签生成 因为我们要检测的图像分辨率很大,比如无人机拍摄的图片尺寸为5630x4314,但又有些目标很小,如果直接把图像缩放到640x640训练的话,效果不好,很多小目标就检测不到了。 因为:yolov5使用了5次下采样,最后输出的特征图 阅读全文
posted @ 2023-03-15 21:33 kuaqi 阅读(791) 评论(0) 推荐(0)
摘要: 一、以下是验证(Validate)部分 1、NMS # NMS # targets的xyxy targets[:, 2:] *= torch.tensor((width, height, width, height), device=device) # to pixels lb = [targets 阅读全文
posted @ 2023-03-12 17:27 kuaqi 阅读(364) 评论(0) 推荐(0)
摘要: 1、scale_boxes() def scale_boxes(img1_shape, boxes, img0_shape, ratio_pad=None): # Rescale boxes (xyxy) from img1_shape to img0_shape if ratio_pad is N 阅读全文
posted @ 2023-03-12 17:24 kuaqi 阅读(180) 评论(0) 推荐(0)
摘要: 1、如果安装了comet_ml,会自动启动该功能 2、安装后,应该是缺少配置的原因,训练最后会报错!这是是要上传结果失败的意思! COMET ERROR: Upload failed because of invalid Comet API key; please set COMET_API_KEY 阅读全文
posted @ 2023-03-11 10:21 kuaqi 阅读(772) 评论(0) 推荐(0)
摘要: 1、加载coco128.yaml报错! 1)错误提示 UnicodeDecodeError: 'gbk' codec can't decode byte 0x80 in position 262: illegal multibyte sequence 2)解决方法 (1)在coco128.yaml头 阅读全文
posted @ 2023-03-11 09:49 kuaqi 阅读(824) 评论(0) 推荐(0)
摘要: 一、GoogleNet提出的inception结构:参考链接、inception百度百科、 1、传统inception结构具有的特点: 1)原始Inception 结构采用1 × 1、3 × 3和5 × 5三种卷积核的卷积层进行并行提取特征。这可以加大网络模型的宽度,不同大小的卷积核也就意味着原始I 阅读全文
posted @ 2023-03-08 18:46 kuaqi 阅读(91) 评论(0) 推荐(0)
摘要: BatchNorm() 1、BatchNorm2d原理:参考链接 1)Batch Norm 只是插入在隐藏层和下一个隐藏层之间的另一个网络层。 它的工作是从第一个隐藏层获取输出并在将它们作为下一个隐藏层的输入传递之前对其进行标准化。 2)是以 一个 batch 为统计单位,在 C(channel) 阅读全文
posted @ 2023-03-07 23:05 kuaqi 阅读(580) 评论(0) 推荐(0)
摘要: 1、workers_per_gpu设置为0,使得数据读取过程为单进程模式,这样才能调试,默认处于多进程模式,无法进入__getitem__函数。参考链接 2、如果直接将workers_per_gpu=0会报错: 'persistent_workers option needs num_workers 阅读全文
posted @ 2023-03-06 18:20 kuaqi 阅读(529) 评论(0) 推荐(0)
摘要: 一、 二、学习率更新 1、官方函数 1)milestones:lr改变时的epoch数目 2)gamma:学习率调整倍数,默认为0.1,即下降10倍 3)last_epoch:别人解释是已经运行的epoch数量!所以下一次更新lr的时候是milestones中值减去last_epoch torch. 阅读全文
posted @ 2022-12-20 22:50 kuaqi 阅读(200) 评论(0) 推荐(0)
摘要: 一、激活函数:链接1 1、激活函数是向神经网络中引入非线性因素,通过激活函数神经网络就可以拟合各种曲线。激活函数主要分为饱和激活函数(Saturated Neurons)和非饱和函数(One-sided Saturations)。Sigmoid和Tanh是饱和激活函数,而ReLU以及其变种为非饱和激 阅读全文
posted @ 2022-12-10 00:10 kuaqi 阅读(95) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 9 10 ··· 31 下一页