11 2025 档案
摘要:原因是项目没有生成成功,重新生成成功后就好了,第一次见,以前都是直接跳转到,记录下
阅读全文
摘要:原文链接:https://cloud.tencent.com/developer/article/1829792 RoI pooling在fast RCNN算法中得到应用,由于该算法用一个卷积网络对原图进行feature extraction,因而共享feature map(特征图,特征提取后得到的
阅读全文
摘要:特征图(Feature Map) 是卷积神经网络(CNN)对输入图像进行特征提取后得到的中间表示,可以理解为一组压缩但语义丰富的“特征图像”。在目标检测中,它是连接主干网络与检测头的核心桥梁。 一、直观形象:特征图长什么样? 假设输入一张 3×800×600 的 RGB 图像: 经过 VGG16 的
阅读全文
摘要:云计算技术是一种基于互联网的计算模式,它将计算资源(如服务器、存储、数据库、网络、软件等)集中起来,以按需、可扩展的方式提供给用户,就像使用水电一样,随取随用,按量付费。 核心特征 按需自助服务:用户可随时申请资源,无需人工干预 广泛网络访问:通过互联网随时随地访问 资源池化:服务商整合资源,多用户
阅读全文
摘要:单元格内手动换行 在编辑单元格时,按 Alt + Enter 即可在光标位置插入换行符。
阅读全文
摘要:因为点了会蓝屏,太吓人了。重启后会好。 句柄是 Windows 内核用于管理资源的"凭证"或"门把手" 。它不是资源本身,而是进程访问内核对象(文件、注册表、窗口、事件等)的唯一授权标识。 生活化类比 想象你去图书馆: 内核对象 = 图书馆里的实体书(资源) 句柄 = 借书卡上的一行记录(凭证,写着
阅读全文
摘要:BiFPN(Bidirectional Feature Pyramid Network)主要用在“提取特征”之后、“做预测”之前的阶段,也就是检测/分割模型的 Neck 部分,负责把 backbone 输出的多尺度特征图进行双向融合,再送给检测头(Head)去推理。
阅读全文
摘要:可以,但要把“维”分清楚: 空间维(H、W)卷积只要 stride > 1 就能让特征图高宽变小,这叫空间降维(分辨率下采样)。 通道维(C) 想升维 → 把输出通道数设得比输入大(64 → 128) 想降维 → 用 1×1 卷积把输出通道数压小(128 → 64),也叫通道压缩 因此“通过卷积网络
阅读全文
摘要:多头自注意力(Multi-Head Self-Attention, MHSA)就是把“一个自注意力”拆成 h 个“头”并行计算,再把结果拼接回来,让模型同时从不同子空间捕捉多种依赖关系。 为什么多头单头自注意力只有一组 Q/K/V,只能学到一种“相似度度量”;多头 → 每组独立投影 → 各学各的(如
阅读全文
摘要:anchor(锚框)就是“RPN 在特征图上预先放好的一组固定大小、固定长宽比的矩形框模板”,用来**“捞”出可能包含物体的区域。 一句话理解:anchor ≠ 最终候选框,它只是“初始滑窗”,网络会在此基础上学出真正的框。 长什么样对每个空间位置(i, j)默认放 k 个 anchor: 3 种面
阅读全文
摘要:候选区域 = “可能包含物体的矩形框”,也叫 Region Proposal / 候选框。 怎么来的 早期 Selective Search:在彩色、纹理、边缘上聚类合并超像素,生成 1k~2k 个框。 Faster R-CNN:用 RPN(Region Proposal Network)在特征图上
阅读全文
摘要:128×128×256 的“分辨率”就是 128×128 像素(宽 128,高 128)。 分辨率就是一张图里“有多少个像素”,也叫空间分辨率。 用“宽 × 高”表示,单位是像素(pixel)。例:1920 × 1080 表示宽 1920 个像素、高 1080 个像素,总共约 207 万像素。 最后
阅读全文
摘要:多尺度特征图就是 “同一张输入图,在网络不同深度得到的一组空间分辨率不同、语义级别不同的特征图”。 为什么需要它 小目标 → 需要高分辨率特征(细节多) 大目标 → 需要大感受野、高语义特征(上下文多)单尺度图只能顾一头,多尺度才能同时抓大和小。 怎么来的(以 CNN 为例) 下采样自然产生224×
阅读全文
摘要:核心差别只有一点:“预训练”的权重已经在大规模数据上收敛过一次,而普通(从零开始)网络的权重仍是随机分布的。 除此之外,网络结构、前向计算、参数量、输入输出格式完全一样;差异只体现在“权重的初始状态”和随之而来的: 特征质量预训练 CNN 的低层边缘/纹理、中层部件、高层语义都已在百万级图片上统计出
阅读全文
摘要:不是。Faster R-CNN 的 Backbone 在“前向推理阶段”只收一张裸图(像素矩阵),任何标注(框、类、掩码)都不进网络。标注只在“训练阶段计算损失”时用到,而且只跟 RPN 和 RoI Head 打交道,Backbone 本身仍然只看图。 流程一句话: 输入:裸图 Backbone:输
阅读全文
摘要:自注意力机制(Self-Attention Mechanism),也称为内部注意力机制(Intra-Attention Mechanism),是一种在深度学习模型中,特别是在自然语言处理(NLP)和计算机视觉(CV)任务中广泛使用的注意力机制。它允许模型在处理序列数据时,对序列内部的不同位置进行加权
阅读全文
摘要:多层感知机(Multilayer Perceptron, MLP) 是深度学习的基础架构,由多层神经元组成的前馈神经网络,能够学习复杂的非线性映射关系,被誉为深度学习的"万能积木"。 一、核心结构:三层架构 层次组成 输入层 → 隐藏层 → 输出层 ↑ ↑↑↑ ↑(特征) (非线性变换) (预测结果
阅读全文
摘要:语义分割技术详解 语义分割(Semantic Segmentation) 是计算机视觉的核心任务,目标是为图像中的每个像素分配一个类别标签,实现像素级的精确理解。简单来说,就是让计算机"看懂"图像中每个像素是什么物体。 一、核心概念:从分类到分割 任务对比 | 任务类型 | 粒度 | 输出 | 示例
阅读全文
摘要:径向基函数概率神经网络(Radial Basis Function Probabilistic Neural Network, RBF-PNN)通常指概率神经网络(PNN),因其核心就是使用高斯径向基函数作为核函数。这是一种基于贝叶斯决策理论和核密度估计的神经网络,特别适合分类问题。核心思想:用"相
阅读全文
摘要:超参数(Hyperparameter) 是机器学习模型的 "外部设定" ,由人预先指定,不通过训练自动学习。 核心区别:超参数 vs 模型参数 表格 复制 对比项超参数模型参数 谁来定 你(开发者) 设定 算法自动学习 例子 学习率、网络层数 权重w、偏置b 作用 控制训练过程 决定模型行为 是否变
阅读全文
摘要:二值图像(Binary Image)是最高度简化的图像形式,每个像素点只有两种可能的取值,通常表示为黑白两色,没有中间灰度或彩色信息。 核心定义 像素值:每个像素只能是 0 或 1(或对应 0 和 255) 颜色表示:0 = 黑色(背景),1(或255)= 白色(前景) 数据形式:单通道、1比特深度
阅读全文
摘要:细化算法(Thinning Algorithm)是图像形态学处理中的经典算法,用于将二值图像中的前景对象逐层剥离,最终提取其骨架(Skeleton)——即单像素宽度的中心线,同时保持原对象的拓扑结构(连通性、端点、孔洞)基本不变。 核心特征 目标:将粗线条、区域对象简化为线状骨架 原则:不改变对象基
阅读全文
摘要:通用核心步骤 设置最小页边距:在打印设置中把边距设为0或最小值 启用缩放/自适应:让内容自动缩放以填满纸张 检查纸张方向:横向/纵向选择能最大化利用空间的方向
阅读全文
摘要:一、支持的整数基础类型 enum Color : byte // 显式指定byte类型(0-255) { Red, Green, Blue } enum HttpStatus : short // short类型 { OK = 200, NotFound = 404 } // 默认是int类型 en
阅读全文
摘要:1.把光标放在 文档最开头(按 Ctrl + Home 瞬间到顶)。2. 按 组合键:Ctrl + Enter即可在首页前插入一个“分页符”,得到一张空白页。
阅读全文
浙公网安备 33010602011771号