摘要: 开端 若在网络的 forward 过程中使用 clamp 函数对数据进行截断,可能会阻断梯度传播。即,梯度变成零。 不妨先做一个实验。定义一个全连接网络 fc,通过输入 input_t 获得结果 pred,其值为 \(0.02\): from torch.nn import functional a 阅读全文
posted @ 2024-01-10 17:29 倒地 阅读(1224) 评论(0) 推荐(0)
摘要: 目标检测 雷达在接收到回波信号后,需要区分目标与噪声。 目标检测方法的核心是阈值法。如果雷达回波大于阈值,则显示检测到目标,否则视为噪声。 采用恒定阈值 采用固定门限进行目标检测时可能会产生一定的虚警。 虚警,没有目标时判断为有目标 漏警,有目标时判断为没有目标 因此,需要根据雷达杂波数据动态调整检 阅读全文
posted @ 2024-01-10 11:41 倒地 阅读(437) 评论(0) 推荐(0)
摘要: 为什么要加窗 每次 FFT 变换只能对有限长度的时域数据进行变换。如果截断的时间长度不是周期的整数倍,那么,截取后的信号将会存在泄漏(例如,一个正弦波的 FFT 本该是一个冲击点,截断不准确的话冲击点两侧会有大量泄漏)。 需要使用加权函数,也叫窗函数。加窗主要是为了使时域信号似乎更好地满足 FFT 阅读全文
posted @ 2024-01-09 11:27 倒地 阅读(607) 评论(0) 推荐(0)
摘要: 梅尔倒频谱系数(MFCC,Mel Frequency Cepstral Coefficents)在人声领域(语音识别,说话人辨认)等领域应用广泛。 这个文章留下学习倒谱与梅尔频率的痕迹。 频谱 声音是一维时域信号。为了分析声音的频域规律,就要用到傅里叶变换,将信号从时域转换到频域。但频域信号失去了时 阅读全文
posted @ 2024-01-08 20:09 倒地 阅读(411) 评论(0) 推荐(0)
摘要: 深度可分离卷积,使用了一些 trick 极大减少卷积所需参数量和计算量。 理解深度可分离卷积 若需要对 12×12×3 的输入使用卷积,获得 8×8×256 的输出,直接的卷积方法是使用 256 个 5×5×3 的卷积核(无 padding、步长为 1,下同)。此时卷积层的参数量为 19200,卷积 阅读全文
posted @ 2024-01-08 20:06 倒地 阅读(258) 评论(0) 推荐(0)
摘要: BatchNorm 层 为了实现输入特征标准化,batch norm 层会维护一个全局均值 running_mean 和全局方差 running_var。网络 train() 时进行统计,eval() 时使用统计值。 除此之外,可选 weight 权重和 bias 权重,这两个权重是会持续参与到网络 阅读全文
posted @ 2024-01-07 23:10 倒地 阅读(49) 评论(0) 推荐(0)
摘要: 用实例说明通道注意力机制与空间注意力机制的内容。包含代码示例。 参考的博文: pytorch中加入注意力机制(CBAM),以ResNet为例。解析到底要不要用ImageNet预训练?如何加预训练参数? (六十一)通俗易懂理解——通道注意力机制和空间注意力机制(CBAM) CBAM Convoluti 阅读全文
posted @ 2024-01-03 13:46 倒地 阅读(3453) 评论(0) 推荐(0)
摘要: 开端 ViT(Visual Transformer)是 2020 年 Google 团队提出的将 Transformer 应用在图像分类的模型,但是当训练数据集不够大的时候,ViT 的表现通常比同等大小的 ResNets 要差一些。 为什么呢?寻找答案的过程中,发现了 归纳偏置 这个概念。 在阅读 阅读全文
posted @ 2023-12-31 14:05 倒地 阅读(415) 评论(0) 推荐(0)
摘要: 使用混合精度的代码示例 以非常基础的训练代码片段为例: for epoch in range(epochs): model.train() for i, (images, labels) in enumerate(loader_train): images = images.to(device) l 阅读全文
posted @ 2023-12-29 01:05 倒地 阅读(116) 评论(0) 推荐(0)
摘要: 阅读这个网站写的一些备忘。 通过少量修改 ResNet18 网络结构的形式,对全卷积网络方案一窥究竟。 允许网络输入任意大小的图像 一般的卷积网络,会因为全连接层 nn.Linear 的存在,而仅允许固定大小的图像输入。 全卷积网络 FCN 使用 1×1 的卷积核,回避了全连接层的缺陷。 不摒弃全连 阅读全文
posted @ 2023-12-27 16:16 倒地 阅读(678) 评论(0) 推荐(0)