2023年6月8日

摘要: 一、整体流程介绍 二、数据准备 根据目标大小不同,考虑3种图像划分尺度,大中小; 而对锚框本身,有正、长、宽3种形态; Po有无中心坐标(0、1)、Bx、By、Bw、Bh,这里是5个特征值,再加上COCO数据集本身自带的80个类别; 故对于每个图像块均构造一个对应的标签列向量y,(5+80)* 3 阅读全文
posted @ 2023-06-08 10:08 JevonChao 阅读(81) 评论(0) 推荐(0) 编辑
摘要: 〇、目标检测 1、定义:既包括回归问题(外接框顶点坐标回归也包括分类问题(识别每个检测框中的物体种类) 在深度学习中,目标检测就是在图像中自动生成确定物体/目标位置(定位目标), 及物体类别(目标识别)目标的位置的表示方法, 通常是目标的外边界的矩形框(或其他形式的框)的各项顶点。 2、基于深度学习 阅读全文
posted @ 2023-06-08 09:41 JevonChao 阅读(30) 评论(0) 推荐(0) 编辑

2023年5月18日

摘要: 0、图像语义分割的问题定义 语义分割是在像素级别上,自动理解或预测图像中的每个像素所属的物体类别 语义分割 1、全卷积网络FCN 没有全连接层,只有卷积层,且在进行卷积后,需将特征图恢复到原始图像的大小 通道数和特征保持一致 算法原理 神经网络结构 损失函数 2、U-Net U-Net将浅层网络中的 阅读全文
posted @ 2023-05-18 00:36 JevonChao 阅读(91) 评论(0) 推荐(0) 编辑
摘要: 什么是图像增广(Image Data Augmentation) 1、定义: 广义的图像数据增强:以增加数据的多样性;有时指的是图像质量增强,如超分辨率技术。 广义的图像数据增强包含图像质量增强技术 2、作用: 深度学习以数据驱动方式训练模型,因此深度学习是数据依赖的。 在深度学习中,图像增强是提高 阅读全文
posted @ 2023-05-18 00:25 JevonChao 阅读(314) 评论(0) 推荐(0) 编辑

2023年5月9日

摘要: 损失函数概念 1、对于监督学习:估量神经网络模型的预测值和真实值的不一致的程度,衡量的是:在神经网络训练阶段,某个或若干个输入样本,在输出层上的预测值和真实值之间不一致的程度。 2、广义上(无监督):衡量两个特征向量之间的差异程度/不一致程度/距离 3、作用:定义最终的损失值,是神经网络误差回传和权 阅读全文
posted @ 2023-05-09 18:07 JevonChao 阅读(111) 评论(0) 推荐(0) 编辑
摘要: 激活函数 作用:增加非线性因素 Relu激活函数,含GELU softmax激活函数:优势和劣势都无限扩大,每个都是自然数次方 sofrmax和sigmoid的区别: sigmoid激活函数: 每个神经元激活时只看自己激活前的值,不满足各个神经元激活后的输出值相加等于1的性质,个神经元之间是独立的。 阅读全文
posted @ 2023-05-09 18:07 JevonChao 阅读(71) 评论(0) 推荐(0) 编辑

2023年5月3日

摘要: 一、孪生神经网络 1、概述:它在目标识别与追踪、精确制导、行人重识别、人脸验证、笔迹验证、图像匹配等领域具有重要应用。 尤其在基于孪生网路的目标检测与追踪方面,设计了SiamFC、SiamRPN、SiamRPN++、DaSiamRPN等经典算法。 本质上,孪生网路是一种实现深度度量学习的深度学习技术 阅读全文
posted @ 2023-05-03 23:54 JevonChao 阅读(334) 评论(0) 推荐(0) 编辑

2023年4月6日

摘要: 1 ''' 2 参考资料: PyTorch官方文档 3 ''' 4 5 # 导入所需的包 6 import torch 7 import wandb 8 import torch.nn as nn 9 from torchvision import transforms 10 from torchv 阅读全文
posted @ 2023-04-06 11:14 JevonChao 阅读(108) 评论(0) 推荐(0) 编辑

2023年4月3日

摘要: 1 # 导入所需的包 2 import torch 3 #import wandb 4 import torch.nn as nn 5 from torchvision import transforms 6 from torch.utils.data import DataLoader 7 fro 阅读全文
posted @ 2023-04-03 16:50 JevonChao 阅读(125) 评论(0) 推荐(0) 编辑
摘要: 图中绿色部分即指明了VGG16所采用的结构。 我们针对VGG16进行具体分析发现,VGG共包含: 13个卷积层(Convolutional Layer),分别用conv3-XXX表示 3个全连接层(Fully connected Layer),分别用FC-XXXX表示 5个池化层(Pool laye 阅读全文
posted @ 2023-04-03 16:30 JevonChao 阅读(369) 评论(0) 推荐(0) 编辑