摘要: 在矩阵论和信号处理中,奇异值分解(Singular Value Decomposition, SVD) 是一个极其重要的工具。它不仅是一个数学分解公式,更是连接数据压缩、特征提取和深度学习优化的桥梁 。 矩阵与奇异值的定义 对任意矩阵 \(A \in \mathbb{R}^{m \times n}\ 阅读全文
posted @ 2025-10-19 15:20 方子敬 阅读(14) 评论(0) 推荐(0)
摘要: AI 学习与人脑类比总结文档 一、AI 与人类学习的本质 • 共同点:无论是人类大脑还是人工神经网络,本质上都是在寻找并逼近输入与输出之间的复杂映射函数。 • 人类学习:通过感官获取信息 → 在大脑形成突触连接 → 强化/遗忘 → 固化为长期记忆。 • AI 学习:通过数据输入 → 神经网络参数(权 阅读全文
posted @ 2025-10-18 17:19 方子敬 阅读(14) 评论(0) 推荐(0)
摘要: 鉴于之前的两次对照实验都无法提现出AlexNet和VGG的区别,我调节了训练的样本数据,也对代码进行了调整,数据集从原先的CIFAR-10: 10类 换成了CIFAR-100: 100类 训练代码和结果如下 import torch import torch.nn as nn import torc 阅读全文
posted @ 2025-10-17 22:03 方子敬 阅读(11) 评论(0) 推荐(0)
摘要: 使用CUDA 10轮结果显示还是Alex胜出 训练轮数换成30轮结果依旧是ALex小优,可见通过模型的结构调整以及在短期的30论训练里面,并没有体现出架构的优势,我们需要在调整其他的超参来观察VGG给图像识别带来的提升,下面是训练每一轮的数据和时长 使用设备: cuda Files already 阅读全文
posted @ 2025-10-15 23:23 方子敬 阅读(3) 评论(0) 推荐(0)
摘要: VGG 模型的关键改进点 (2014, Very Deep Convolutional Networks for Large-Scale Image Recognition) 改进点 AlexNet VGG 意义 卷积核设计 大卷积核(11×11, 5×5)+ 少量层 小卷积核(3×3)堆叠,网络更 阅读全文
posted @ 2025-10-14 22:29 方子敬 阅读(12) 评论(0) 推荐(0)
摘要: 1. AlexNet 论文的关键创新点 (2012, ImageNet Classification with Deep Convolutional Neural Networks) 创新点 简述 意义 ReLU 激活函数 用 ReLU 替代 Sigmoid/Tanh 缓解梯度消失,训练速度更快 D 阅读全文
posted @ 2025-10-13 22:22 方子敬 阅读(23) 评论(0) 推荐(0)
摘要: 本实验旨在评估 LeNet 卷积神经网络 在不同复杂度数据集上的表现,以验证其泛化能力与局限性。我们选择了三个典型数据集: • MNIST:28×28 灰度手写数字,任务简单、类内差异小; • Fashion-MNIST:28×28 灰度服饰图像,较 MNIST 更复杂,类间区分难度提升; • CI 阅读全文
posted @ 2025-10-12 08:26 方子敬 阅读(11) 评论(0) 推荐(0)
摘要: CNN 发展历程 • LeNet (1998):局部感受野 + 池化,第一次真正提出 CNN • AlexNet (2012):ReLU + Dropout + 数据增强 + GPU,加速深度网络训练 • VGG (2014):3×3 小卷积堆叠,结构简洁、可扩展 • Inception (2014 阅读全文
posted @ 2025-10-11 22:54 方子敬 阅读(45) 评论(0) 推荐(0)
摘要: 在上一章里,我们通过实验验证了 MLP 在 MNIST 上表现优异,但在平移、旋转、噪声干扰以及跨数据集时暴露出明显局限性。这也就引出了我们要学习的下一个重要模型 —— 卷积神经网络(CNN, Convolutional Neural Network)。CNN 的出现,正是为了解决 MLP 丢失空间 阅读全文
posted @ 2025-10-10 22:53 方子敬 阅读(13) 评论(0) 推荐(0)
摘要: !!!本次模拟训练的时长在没有下载的基础上且使用cuda加速的情况下是4min多。 (需要保证体验的话,需要使用cuda或者mps进行加速,且提前下载数据集) 在上一篇实验中,我们看到 MLP 在 MNIST 手写数字识别上可以达到接近 97.5% 的准确率。这说明 MLP 具备了较强的拟合能力,只 阅读全文
posted @ 2025-10-09 15:21 方子敬 阅读(13) 评论(0) 推荐(0)