baimielianqiu

导航

2026年3月12日 #

Resnet笔记

摘要: 当前学到了X,目标是H(X),那么下一层应该去学H(X)-X,结果加上X。 输入和输出形状不同怎么办? 添加额外的0 1x1卷积,步幅为2,投影,只在输入输出不同的时候做投影更好 没有全连接层所以不适用dropout? maxpool没有参数训练,不算层 一个残差块做一次残差链接,这里图是x2,有两 阅读全文

posted @ 2026-03-12 23:47 独行漫漫长路 阅读(2) 评论(0) 推荐(0)

2026年3月8日 #

正则化

摘要: 深度学习常见正则化方法总结 正则化(Regularization)的核心目的是防止模型过拟合(Overfitting),避免模型“死记硬背”训练集,从而提升其在未知数据上的泛化能力。以下是五种常见正则化方法的详细总结与计算示例。 1. L1 / L2 正则化 (Weight Decay) 通过在基础 阅读全文

posted @ 2026-03-08 22:38 独行漫漫长路 阅读(9) 评论(0) 推荐(0)

2025年9月23日 #

数据结构

该文被密码保护。 阅读全文

posted @ 2025-09-23 16:53 独行漫漫长路 阅读(0) 评论(0) 推荐(0)

2025年9月15日 #

数据结构操作荟萃

该文被密码保护。 阅读全文

posted @ 2025-09-15 23:10 独行漫漫长路 阅读(2) 评论(0) 推荐(0)

2025年8月26日 #

408-DS之算法

该文被密码保护。 阅读全文

posted @ 2025-08-26 20:40 独行漫漫长路 阅读(2) 评论(0) 推荐(0)

408-OS之PV专题

该文被密码保护。 阅读全文

posted @ 2025-08-26 20:08 独行漫漫长路 阅读(2) 评论(0) 推荐(0)