会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
zhchoice
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
下一页
2025年10月19日
从数学概念到图像识别,再到 CNN 的联系
摘要: 在矩阵论和信号处理中,奇异值分解(Singular Value Decomposition, SVD) 是一个极其重要的工具。它不仅是一个数学分解公式,更是连接数据压缩、特征提取和深度学习优化的桥梁 。 矩阵与奇异值的定义 对任意矩阵 \(A \in \mathbb{R}^{m \times n}\
阅读全文
posted @ 2025-10-19 15:20 方子敬
阅读(14)
评论(0)
推荐(0)
2025年10月18日
今日学习笔记
摘要: AI 学习与人脑类比总结文档 一、AI 与人类学习的本质 • 共同点:无论是人类大脑还是人工神经网络,本质上都是在寻找并逼近输入与输出之间的复杂映射函数。 • 人类学习:通过感官获取信息 → 在大脑形成突触连接 → 强化/遗忘 → 固化为长期记忆。 • AI 学习:通过数据输入 → 神经网络参数(权
阅读全文
posted @ 2025-10-18 17:19 方子敬
阅读(14)
评论(0)
推荐(0)
2025年10月17日
Alex-VGG3
摘要: 鉴于之前的两次对照实验都无法提现出AlexNet和VGG的区别,我调节了训练的样本数据,也对代码进行了调整,数据集从原先的CIFAR-10: 10类 换成了CIFAR-100: 100类 训练代码和结果如下 import torch import torch.nn as nn import torc
阅读全文
posted @ 2025-10-17 22:03 方子敬
阅读(11)
评论(0)
推荐(0)
2025年10月15日
Aexlet-VGG2
摘要: 使用CUDA 10轮结果显示还是Alex胜出 训练轮数换成30轮结果依旧是ALex小优,可见通过模型的结构调整以及在短期的30论训练里面,并没有体现出架构的优势,我们需要在调整其他的超参来观察VGG给图像识别带来的提升,下面是训练每一轮的数据和时长 使用设备: cuda Files already
阅读全文
posted @ 2025-10-15 23:23 方子敬
阅读(3)
评论(0)
推荐(0)
2025年10月14日
CNN 发展历程的下一站 —— VGG
摘要: VGG 模型的关键改进点 (2014, Very Deep Convolutional Networks for Large-Scale Image Recognition) 改进点 AlexNet VGG 意义 卷积核设计 大卷积核(11×11, 5×5)+ 少量层 小卷积核(3×3)堆叠,网络更
阅读全文
posted @ 2025-10-14 22:29 方子敬
阅读(12)
评论(0)
推荐(0)
2025年10月13日
AlexNet vs LeNet 对比实验
摘要: 1. AlexNet 论文的关键创新点 (2012, ImageNet Classification with Deep Convolutional Neural Networks) 创新点 简述 意义 ReLU 激活函数 用 ReLU 替代 Sigmoid/Tanh 缓解梯度消失,训练速度更快 D
阅读全文
posted @ 2025-10-13 22:22 方子敬
阅读(23)
评论(0)
推荐(0)
2025年10月12日
浅层 CNN 的瓶颈:用 LeNet 实测不同数据集
摘要: 本实验旨在评估 LeNet 卷积神经网络 在不同复杂度数据集上的表现,以验证其泛化能力与局限性。我们选择了三个典型数据集: • MNIST:28×28 灰度手写数字,任务简单、类内差异小; • Fashion-MNIST:28×28 灰度服饰图像,较 MNIST 更复杂,类间区分难度提升; • CI
阅读全文
posted @ 2025-10-12 08:26 方子敬
阅读(11)
评论(0)
推荐(0)
2025年10月11日
CNN 发展历程
摘要: CNN 发展历程 • LeNet (1998):局部感受野 + 池化,第一次真正提出 CNN • AlexNet (2012):ReLU + Dropout + 数据增强 + GPU,加速深度网络训练 • VGG (2014):3×3 小卷积堆叠,结构简洁、可扩展 • Inception (2014
阅读全文
posted @ 2025-10-11 22:54 方子敬
阅读(45)
评论(0)
推荐(0)
2025年10月10日
CNN 核心组成与作用
摘要: 在上一章里,我们通过实验验证了 MLP 在 MNIST 上表现优异,但在平移、旋转、噪声干扰以及跨数据集时暴露出明显局限性。这也就引出了我们要学习的下一个重要模型 —— 卷积神经网络(CNN, Convolutional Neural Network)。CNN 的出现,正是为了解决 MLP 丢失空间
阅读全文
posted @ 2025-10-10 22:53 方子敬
阅读(13)
评论(0)
推荐(0)
2025年10月9日
MLP 的局限:从 MNIST 到 Cats vs Dogs
摘要: !!!本次模拟训练的时长在没有下载的基础上且使用cuda加速的情况下是4min多。 (需要保证体验的话,需要使用cuda或者mps进行加速,且提前下载数据集) 在上一篇实验中,我们看到 MLP 在 MNIST 手写数字识别上可以达到接近 97.5% 的准确率。这说明 MLP 具备了较强的拟合能力,只
阅读全文
posted @ 2025-10-09 15:21 方子敬
阅读(13)
评论(0)
推荐(0)
上一页
1
2
3
下一页
公告