上一页 1 2 3 4 5 6 ··· 12 下一页
摘要: # 优化: # 导入Pickle模块,用于保存和加载数据 # He 初始化,修改linear和Conv2D初始化权重初始化方式,准确率大幅提升 # 增加学习率策略,对这个策略再做优化,准确率应该还能提升 # 保存最优模型参数 # 导入必要的库 import numpy as np import os 阅读全文
posted @ 2025-10-11 18:01 李大嘟嘟 阅读(8) 评论(0) 推荐(0)
摘要: # 优化: # 新建Model类,将神经网络的结构定义、训练流程(前向/后向)和预测逻辑统一封装起来 # 何将权重更新的职责从网络层(Linear)中分离出来,交给优化器(SGD)来完成 # 使用动量梯度下降优化算法(MSGD) # 增加了Adam优化算法 # 增加了Optimizer类,优化器的父 阅读全文
posted @ 2025-10-10 16:10 李大嘟嘟 阅读(5) 评论(0) 推荐(0)
摘要: 您好,np.random.seed(1000) 这行代码的意思是:设置 NumPy 伪随机数生成器的种子(Seed)。 它的核心作用是确保您代码中的随机性是可复现的(Reproducible)。 💡 为什么需要设置 Seed? 在深度学习中,很多操作都涉及随机性: 权重初始化: np.random 阅读全文
posted @ 2025-10-09 16:49 李大嘟嘟 阅读(15) 评论(0) 推荐(0)
摘要: # 优化: # 增加父类Module,输出每层信息 # 增加ReLU类,Tanh类 # 增加Dropout类,随机失活,防止过拟合,提高泛化能力 # 增加Parameter类,保存权重和梯度 # 导入必要的库 import numpy as np import os import struct # 阅读全文
posted @ 2025-09-27 16:16 李大嘟嘟 阅读(8) 评论(0) 推荐(0)
摘要: Momentum Gradient Descent(动量梯度下降)是标准梯度下降(SGD)的一个重要改进版,旨在加速训练过程,并帮助模型更有效地找到最优解。 你可以将动量(Momentum)想象成物理学中的惯性。 动量梯度下降(Momentum GD)的核心思想 标准 SGD 的问题: 标准的 SG 阅读全文
posted @ 2025-09-27 15:36 李大嘟嘟 阅读(31) 评论(0) 推荐(0)
摘要: 抽象化编程(Abstraction in Programming)是面向对象编程(OOP)中一个非常重要的设计原则,它与我们前面讨论的封装、继承、多态紧密相关。 抽象化编程的含义 核心思想: 关注于做什么(What),而不是如何做(How)。 抽象化意味着隐藏对象的复杂实现细节,只向用户暴露必要的功 阅读全文
posted @ 2025-09-27 14:31 李大嘟嘟 阅读(11) 评论(0) 推荐(0)
摘要: 优化器(Optimizer)是深度学习和机器学习中最核心的组件之一。 简单来说,优化器的作用就是指导模型如何学习。它决定了在反向传播计算出梯度(模型应该朝哪个方向调整)之后,模型应该以多大的“步伐”和什么样的方式来实际更新它的权重和偏置。 你可以把优化器看作是一个驾驶员,而梯度(Loss 对权重的导 阅读全文
posted @ 2025-09-27 14:27 李大嘟嘟 阅读(20) 评论(0) 推荐(0)
摘要: Dropout(丢弃法)是一种在神经网络训练中广泛使用的正则化(Regularization)技术。它的主要作用是防止模型在训练集上过拟合(Overfitting),从而提高模型在未见过数据(测试集)上的泛化能力。 Dropout 类的作用和工作原理 如果你要在你的面向对象的神经网络框架中实现一个 阅读全文
posted @ 2025-09-27 14:10 李大嘟嘟 阅读(22) 评论(0) 推荐(0)
摘要: np.random.rand 是 NumPy 库中一个常用的函数,用于创建包含随机数(浮点数)的数组。 np.random.rand 详解 1. 核心功能 np.random.rand 生成的随机数服从**[0.0, 1.0) 范围内的均匀分布(Uniform Distribution)**。 均匀 阅读全文
posted @ 2025-09-27 13:39 李大嘟嘟 阅读(18) 评论(0) 推荐(0)
摘要: # 继承 class F: def __init__(self): self.info = "hello Father" def fun1(self): return self.info class S(F): pass f = F() s = S() print(f.fun1()) # hello 阅读全文
posted @ 2025-09-25 15:50 李大嘟嘟 阅读(5) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 ··· 12 下一页