摘要: 迁移学习 迁移学习(Transfer Learning)是机器学习和深度学习领域的一种方法,它通过将从一个任务中学到的知识或模型参数应用于另一个相关或不完全相关的任务,从而改进后者的性能。这个概念灵感来源于人类学习的方式,即我们在一个领域学到的知识和技能可以帮助我们更容易地学习另一个领域。 迁移学习 阅读全文
posted @ 2023-11-06 16:31 同淋雪 阅读(301) 评论(0) 推荐(0)
摘要: 数据集 一、常见目标检测数据集 1、PASCAL VOC 07/12 Pascal Visual Object Classes(VOC)挑战赛。对四个目标类别进行分类和检测。这两个版本主要用于基准测试集。VOC2007 有5k个训练图像,超过12k的标注目标;VOC2012有11k个训练图像,超过2 阅读全文
posted @ 2023-11-06 16:30 同淋雪 阅读(609) 评论(0) 推荐(0)
摘要: # 初识目标检测 ## 什么是目标检测? 在图像或视频中,找到目标位置并进行分类。 早期的目标检测模型是通过集成一系列手工设计的特征提取器来构造的,速度慢、精度低、跨域性能差。 ## 目标检测的目的 检测出图像中所有实例的类别,并用一个轴对称的矩形框大致给出实例的位置。检测器应当识别出所有的实例,并 阅读全文
posted @ 2023-08-18 17:31 同淋雪 阅读(30) 评论(0) 推荐(0)
摘要: # 上采样和下采样(池化) 池化(下采样) ![image-20230801131135353](https://gitee.com/drenched-with-snow/pic-go/raw/master/202308011314486.png) 上采样 ![image-2023080113125 阅读全文
posted @ 2023-08-01 13:16 同淋雪 阅读(32) 评论(0) 推荐(0)
摘要: # 卷积神经网络 假设一张图片由28x28个像素块构成,每个像素块有一个值,称为灰度值,取值范围是0-255。而在深度学习中,我们用一个28x28的矩阵来存储图片信息,将0-255的灰度值转换为0-1之间的值。0代表全白,1代表全黑。图片存储的时候以0-255灰度值存储,而我们将图片载入到网络中时, 阅读全文
posted @ 2023-08-01 13:06 同淋雪 阅读(69) 评论(0) 推荐(0)
摘要: # 丢弃法(Dropout) Dropout的思想:“Learning less to learn better”。意思是使用更少的连接使效果更好。 在训练的时候,dropout会把一些连接断掉,而在测试(验证)的时候保持全连接。 阅读全文
posted @ 2023-07-13 19:54 同淋雪 阅读(201) 评论(0) 推荐(0)
摘要: # 早停法(Early stopping) 在训练时我们会发现,并不是随着训练次数的越多训练效果越好,过度训练甚至会导致准确率的下降。所以我们需要在合适的时候选择停止,提前终止训练,保证模型的性能最好。 实现方式: 1. 使用测试集(验证集)做模型参数选择; 2. 监测测试的表现; 3. 在准确率到 阅读全文
posted @ 2023-07-13 18:28 同淋雪 阅读(706) 评论(0) 推荐(0)
摘要: # 动量(momentum) 动量类似于物理中的运动物体具有惯性,下一个时刻的运动方向,会与上个时刻的运动方向有关。 梯度下降的过程中,参数w朝着损失函数的偏导数的方向迭代,也就是下降得最快方向。 ![image-20230713170043310](https://gitee.com/drench 阅读全文
posted @ 2023-07-13 17:41 同淋雪 阅读(363) 评论(0) 推荐(0)
摘要: # 正则化 正则化的提出在于减轻过拟合。 减轻过拟合有多种方法: - 提供更多的数据 - 降低模型复杂度 - Drop out - 数据增强(Data argumentation) - Early stopping 正则化的本质是使高维的参数变小,接近于0,降低模型复杂度。 ![image-2023 阅读全文
posted @ 2023-07-13 16:23 同淋雪 阅读(22) 评论(0) 推荐(0)
摘要: # 交叉验证 在实际情况中,数据集是分为训练集和测试集的。而测试集通常被用户保留,并不对外公开,以防止在测试模型时作弊,故意使用让模型效果更好的数据进行测试,以至于模型遇上新的数据效果很差。 ![image-20230531211645662](https://gitee.com/drenched- 阅读全文
posted @ 2023-05-31 21:34 同淋雪 阅读(37) 评论(0) 推荐(0)