随笔分类 -  研究生

摘要:多尺度策略是一种在机器学习领域广泛应用的分析方法,它通过将数据划分为多个层次或尺度来提取特征,从而提高模型的性能。这种方法在不同的空间或时间尺度上对现象、过程或数据进行观察和分析,尤其在物理、化学、生物、材料科学等学科中都有应用。 在深度学习中,多尺度策略通常指的是融合不同尺度的特征以提高性能。低层 阅读全文
posted @ 2025-03-16 22:24 yinghualeihenmei 阅读(198) 评论(0) 推荐(0)
摘要:反向传播算法(Backpropagation)是深度学习和神经网络训练中的核心算法,用于计算损失函数相对于网络参数的梯度。这些梯度随后用于通过梯度下降(或其变体)更新网络权重,以最小化损失函数。反向传播算法结合了链式法则和梯度下降,使得在多层网络中高效地计算梯度成为可能。 反向传播算法的步骤 前向传 阅读全文
posted @ 2025-03-14 01:07 yinghualeihenmei 阅读(502) 评论(0) 推荐(0)
摘要:在PyTorch中,nn.Sequential是一个容器模块,它按照它们在构造函数中传递的顺序包含一系列的子模块。nn.Sequential使得模型的构建更加简洁和直观,特别是当你的模型由一系列层顺序堆叠而成时。 功能 nn.Sequential自动将输入数据通过其包含的子模块进行传递。这意味着你不 阅读全文
posted @ 2025-03-14 01:06 yinghualeihenmei 阅读(196) 评论(0) 推荐(0)
摘要:在PyTorch中,torch.nn.Linear是一个线性层(全连接层)的实现,它位于torch.nn模块中。这个模块是PyTorch中构建神经网络的基础,提供了许多预定义的层和函数,以便于快速构建和训练模型。 功能 torch.nn.Linear实现了一个线性变换,即对输入数据进行加权求和并加上 阅读全文
posted @ 2025-03-14 01:03 yinghualeihenmei 阅读(265) 评论(0) 推荐(0)
摘要:AvgPool2d 是 PyTorch 中用于实现二维平均池化的层,它对输入信号的每个通道应用 2D 平均池化。平均池化层通过计算池化窗口内元素的平均值来降低特征图的空间维度,从而减少计算量和参数数量,同时提高模型对输入变化的鲁棒性。AvgPool2d 层的输出值可以通过以下公式精确描述:out(N 阅读全文
posted @ 2025-03-14 00:59 yinghualeihenmei 阅读(162) 评论(0) 推荐(0)
摘要:MaxPool2d,全称为二维最大池化层(Max Pooling Layer),是卷积神经网络(CNN)中常用的一种池化(pooling)操作。池化层的主要作用是降低特征图的空间尺寸(即高度和宽度),从而减少模型的参数数量和计算量,同时提高模型对输入变化的鲁棒性。 MaxPool2d的工作原理 Ma 阅读全文
posted @ 2025-03-14 00:57 yinghualeihenmei 阅读(435) 评论(0) 推荐(0)
摘要:Conv2d Conv2d 是二维卷积层的直接实现,是卷积神经网络中用于处理二维数据(如图像)的基本构建块。它通过卷积核(或滤波器)在输入数据上滑动,计算卷积核与输入数据的局部区域的点积,从而生成输出特征图。 关键参数: in_channels:输入数据的通道数。 out_channels:输出数据 阅读全文
posted @ 2025-03-14 00:54 yinghualeihenmei 阅读(253) 评论(0) 推荐(0)
摘要:ReLU,全称为Rectified Linear Unit(线性修正单元),是一种在深度学习中广泛使用的激活函数。它的作用是向神经网络引入非线性因素,使网络能够学习和执行更复杂的任务。 ReLU函数的定义 ReLU函数的数学表达式非常简单: f(x)=max(0,x) 这意味着,对于所有正数输入,R 阅读全文
posted @ 2025-03-14 00:50 yinghualeihenmei 阅读(839) 评论(0) 推荐(0)
摘要:Batch Normalization(批量归一化)是一种在深度学习中常用的技术,特别是在训练卷积神经网络(CNN)时。它由 Sergey Ioffe 和 Christian Szegedy 在 2015 年提出,旨在加速训练过程,减少对初始化的依赖,并有助于缓解梯度消失和梯度爆炸问题。Batch 阅读全文
posted @ 2025-03-14 00:34 yinghualeihenmei 阅读(104) 评论(0) 推荐(0)
摘要:Zeropad是一种在深度学习和卷积神经网络中常用的技术,特别是在图像处理领域。它涉及在输入张量的边界填充零,以改变其尺寸。这种操作通常用于保持卷积操作后的特征图尺寸不变,或者为了满足某些层的输入要求。Zeropad可以应用于一维、二维或多维数据,但在图像处理中,二维零填充(ZeroPad2d)尤为 阅读全文
posted @ 2025-03-14 00:32 yinghualeihenmei 阅读(56) 评论(0) 推荐(0)
摘要:Softmax分类器是一种在多分类问题中常用的分类方法,它基于Softmax函数,该函数可以将一个向量映射到概率分布上。Softmax分类器通常用于神经网络的最后一层,以输出每个类别的概率。 Softmax分类器在机器学习和深度学习中扮演着至关重要的角色,特别是在处理多分类问题时。以下是Softma 阅读全文
posted @ 2025-03-14 00:19 yinghualeihenmei 阅读(325) 评论(0) 推荐(0)
摘要:原文链接:https://blog.csdn.net/weixin_44791964/article/details/105739918 https://blog.csdn.net/gloria_iris/article/details/143872340 Faster R-CNN的核心思想是利用区 阅读全文
posted @ 2025-03-14 00:05 yinghualeihenmei 阅读(293) 评论(0) 推荐(0)
摘要:https://blog.csdn.net/MikexunP/article/details/89414928 基本配置 我们安装好PyCharm后,首先要进行一些小配置,比如主题,字体,字体颜色等。 我们打开PyCharm后,点开file,找到Setting 然后就会跳出Setting的窗口 可以 阅读全文
posted @ 2025-03-12 00:52 yinghualeihenmei 阅读(231) 评论(0) 推荐(0)
摘要:原文链接:https://zhuanlan.zhihu.com/p/101434455 第一步:附上软件下载链接,自行下载 以下是Anaconda的下载链接及相关信息: 官方下载链接 Anaconda官网下载地址:https://www.anaconda.com/products/distribut 阅读全文
posted @ 2025-03-02 19:45 yinghualeihenmei 阅读(1422) 评论(0) 推荐(0)
摘要:原文链接:https://blog.csdn.net/kagcee/article/details/135723674 在labelimg进行图片标注时,出现闪退报错如下:drawLine(self, l: QLineF): argument 1 has unexpected type ‘float 阅读全文
posted @ 2025-03-02 19:28 yinghualeihenmei 阅读(1639) 评论(0) 推荐(1)
摘要:原文链接:https://blog.csdn.net/knighthood2001/article/details/125883343 什么是labelimg labelimg是一款开源的图像标注工具,标签可用于分类和目标检测,它是用python写的,并使用Qt作为其图形界面,简单好用(虽然是英文版 阅读全文
posted @ 2025-02-27 18:21 yinghualeihenmei 阅读(2914) 评论(0) 推荐(0)
摘要:对数据集进行标注是机器学习和深度学习中非常重要的一步,它直接影响模型的训练效果和性能。以下是数据集标注的常见方法、工具和规范: 一、数据集标注的方法 目标检测标注: 使用矩形框(Bounding Box)标注目标物体的位置,并为其分配类别标签。 对于遮挡或不规则形状的目标,可以使用多边形框进行标注。 阅读全文
posted @ 2025-02-25 23:21 yinghualeihenmei 阅读(2130) 评论(0) 推荐(0)
摘要:在卷积神经网络(CNN)中,缩放因子 和 Softmax 归一化 是两个不同的概念,但它们在模型优化和输出处理中都扮演着重要角色。 1. 缩放因子(Scaling Factor) 缩放因子通常用于模型的优化过程中,尤其是在网络剪枝(Pruning)和稀疏化训练中。通过引入缩放因子,可以对卷积层的通道 阅读全文
posted @ 2025-02-18 23:11 yinghualeihenmei 阅读(319) 评论(0) 推荐(0)
摘要:在卷积神经网络(CNN)中,卷积核大小(Kernel Size) 和 步长(Stride) 是卷积操作的两个关键参数。它们直接影响卷积层的输出特征图(Feature Map)的大小和形状,以及模型的性能和计算复杂度。 1. 卷积核大小(Kernel Size) 卷积核大小是指卷积核(滤波器)的宽度和 阅读全文
posted @ 2025-02-18 22:59 yinghualeihenmei 阅读(457) 评论(0) 推荐(0)
摘要:在深度学习和神经网络中,Flatten 层 是一种常用的层类型,用于将多维输入数据展平为一维数据。它的主要作用是将输入的多维张量(例如图像数据)转换为一维向量,以便后续的全连接层(Dense Layer)可以处理这些数据。 Flatten 层的作用 在卷积神经网络(CNN)中,输入数据通常是多维的( 阅读全文
posted @ 2025-02-18 22:52 yinghualeihenmei 阅读(297) 评论(0) 推荐(0)