摘要: nn.Softmax nn.Softmax核心作用:把分数变成概率 作用是: 把任意实数转换成概率分布(所有值在 0~1,总和=1) 一、为什么需要 Softmax? 神经网络最后一层输出通常是:logits = [2.0, 1.0, 0.1] 这些只是“分数”,不是概率。 Softmax 转换后: 阅读全文
posted @ 2026-03-01 20:11 天才大锤 阅读(2) 评论(0) 推荐(0)
摘要: nn.ReLU 本质:ReLU = max(0, x) 即: 负数 → 变成 0 正数 → 保持不变 一句话终极理解:ReLU = 把负数变成0,让神经网络具备非线性学习能力 ReLU实际运行 import torch import torch.nn as nn relu = nn.ReLU() x 阅读全文
posted @ 2026-03-01 19:38 天才大锤 阅读(1) 评论(0) 推荐(0)
摘要: nn.MaxPool2d MaxPool2d 本质一句话: 把图像分块,每块取最大值 or 降采样(downsampling) 输入输出shape 输入必须是:batch, channels, height, width 例如:x shape = (1, 1, 4, 4) 1张图, 1通道, 4x4 阅读全文
posted @ 2026-03-01 17:56 天才大锤 阅读(1) 评论(0) 推荐(0)
摘要: nn.Conv2d Conv2d 本质一句话:用多个卷积核扫描图像,提取特征。 Conv2d 输入必须是 4维张量:batch_size, in_channels, height, width。 例如: x shape = (1, 3, 32, 32) 表示: 1张图片 3通道(RGB) 32x32 阅读全文
posted @ 2026-03-01 17:44 天才大锤 阅读(3) 评论(0) 推荐(0)
摘要: nn.Linear nn.Linear —— 全连接层本质 nn.Linear(in_features, out_features) fc = nn.Linear(4, 3) 含义: 输入: 4维向量 输出: 3维向量 数学公式:y = x @ weight.T + bias 其中: x shape 阅读全文
posted @ 2026-03-01 16:44 天才大锤 阅读(1) 评论(0) 推荐(0)