随笔分类 -  学习

摘要:🔑 Git SSH 推送完整流程总结 SSH 流程的核心是:用本地生成的公钥(Public Key)在 GitHub 注册您的身份,然后 Git 通过加密通道进行通信,无需密码。 序号 阶段 目标 关键语句/位置 1 生成密钥 在本地电脑上创建 SSH 密钥对(公钥 + 私钥)。 ssh-keyg 阅读全文
posted @ 2025-10-16 23:02 李大嘟嘟 阅读(11) 评论(0) 推荐(0)
摘要:学术论文中结果(Results)和结论 (Conclusion)的联系与区别 维度 结果 (Results) 结论 (Conclusion) 联系 结论基于结果。结论必须以结果的客观发现为基础,不能无中生有。 区别 事实呈现,描述“是什么”(What)。 事实的解释和意义提炼,指导“下一步做什么”( 阅读全文
posted @ 2025-10-15 22:55 李大嘟嘟 阅读(15) 评论(0) 推荐(0)
摘要:Latent Dirichlet Allocation (LDA),中文译作潜在狄利克雷分配,它是主题建模(Topic Modeling)领域最经典和最常用的算法之一。 📊 Latent Dirichlet Allocation (LDA) 算法解析 1. 核心目标:发现文本中的“隐藏主题” LD 阅读全文
posted @ 2025-10-15 22:26 李大嘟嘟 阅读(14) 评论(0) 推荐(0)
摘要:在许多国家的医疗体系中,医疗服务会根据其复杂程度、专业深度和资源需求,被划分为不同的级别或层级。 🏥 三级医疗服务体系 (Three Tiers of Care) 层级 英文名称 核心特征 典型场所 (Settings) 初级护理 Primary Care 基本、基础、持续的护理。 它是患者接触医 阅读全文
posted @ 2025-10-15 21:37 李大嘟嘟 阅读(8) 评论(0) 推荐(0)
摘要:Scoping Review(范围综述)的定义与作用 Scoping Review(中文译作范围综述或划界综述)是一种系统性的文献回顾方法,它与传统的Systematic Review(系统综述)有所不同,主要目的是: 1. 定义: 范围综述是一种旨在系统地、快速地描绘某一主题的现有证据范围和性质的 阅读全文
posted @ 2025-10-15 21:18 李大嘟嘟 阅读(21) 评论(0) 推荐(0)
摘要:#onehot 文本分类 #平均池化及坍缩的恢复,很难理解啊 import numpy as np from torch.utils.data import Dataset, DataLoader # 定义read_data函数,读数据 def read_data(path): with open( 阅读全文
posted @ 2025-10-13 21:09 李大嘟嘟 阅读(12) 评论(0) 推荐(0)
摘要:移除不兼容的pytorch版本 运行代码时报错 这个错误表明正在使用的 PyTorch 版本过旧,它不支持 torch.utils.data.DataLoader 的 persistent_workers 参数或属性。 卸载旧版 pip uninstall torch torchvision tor 阅读全文
posted @ 2025-10-12 14:19 李大嘟嘟 阅读(32) 评论(0) 推荐(0)
摘要:将代码解耦并使用 import 语句导入您自己的模块(例如 import nn_core)时,Python 就会创建这个 __pycache__ 文件夹。 __pycache__ 是什么? __pycache__ 文件夹是 Python 解释器在运行模块代码时自动创建的,用于存放模块的字节码缓存文件 阅读全文
posted @ 2025-10-12 13:27 李大嘟嘟 阅读(19) 评论(0) 推荐(0)
摘要:将前文的代码解耦为三个部分: 定义的类和函数的nn_core.py 模型训练和测试集验证并保存最优模型的main_train.py 验收 (自定义图片预测)的脚本predict.py 至此,手写数字识别的NLP任务完全结束,至于更多的优化目前我不准备做了。 下面是源码: nn_core.py # 更 阅读全文
posted @ 2025-10-12 13:17 李大嘟嘟 阅读(20) 评论(0) 推荐(0)
摘要:# # 10_11验收手写数字识别 # # 在解耦和验收测试集图片和标签处理上仍有较大优化空间 # 导入相关库 import numpy as np import os import struct import pickle import cv2 # 定义导入函数 def load_images(p 阅读全文
posted @ 2025-10-11 18:54 李大嘟嘟 阅读(14) 评论(0) 推荐(0)
摘要:# 优化: # 导入Pickle模块,用于保存和加载数据 # He 初始化,修改linear和Conv2D初始化权重初始化方式,准确率大幅提升 # 增加学习率策略,对这个策略再做优化,准确率应该还能提升 # 保存最优模型参数 # 导入必要的库 import numpy as np import os 阅读全文
posted @ 2025-10-11 18:01 李大嘟嘟 阅读(8) 评论(0) 推荐(0)
摘要:# 优化: # 新建Model类,将神经网络的结构定义、训练流程(前向/后向)和预测逻辑统一封装起来 # 何将权重更新的职责从网络层(Linear)中分离出来,交给优化器(SGD)来完成 # 使用动量梯度下降优化算法(MSGD) # 增加了Adam优化算法 # 增加了Optimizer类,优化器的父 阅读全文
posted @ 2025-10-10 16:10 李大嘟嘟 阅读(5) 评论(0) 推荐(0)
摘要:您好,np.random.seed(1000) 这行代码的意思是:设置 NumPy 伪随机数生成器的种子(Seed)。 它的核心作用是确保您代码中的随机性是可复现的(Reproducible)。 💡 为什么需要设置 Seed? 在深度学习中,很多操作都涉及随机性: 权重初始化: np.random 阅读全文
posted @ 2025-10-09 16:49 李大嘟嘟 阅读(15) 评论(0) 推荐(0)
摘要:# 优化: # 增加父类Module,输出每层信息 # 增加ReLU类,Tanh类 # 增加Dropout类,随机失活,防止过拟合,提高泛化能力 # 增加Parameter类,保存权重和梯度 # 导入必要的库 import numpy as np import os import struct # 阅读全文
posted @ 2025-09-27 16:16 李大嘟嘟 阅读(8) 评论(0) 推荐(0)
摘要:Momentum Gradient Descent(动量梯度下降)是标准梯度下降(SGD)的一个重要改进版,旨在加速训练过程,并帮助模型更有效地找到最优解。 你可以将动量(Momentum)想象成物理学中的惯性。 动量梯度下降(Momentum GD)的核心思想 标准 SGD 的问题: 标准的 SG 阅读全文
posted @ 2025-09-27 15:36 李大嘟嘟 阅读(31) 评论(0) 推荐(0)
摘要:抽象化编程(Abstraction in Programming)是面向对象编程(OOP)中一个非常重要的设计原则,它与我们前面讨论的封装、继承、多态紧密相关。 抽象化编程的含义 核心思想: 关注于做什么(What),而不是如何做(How)。 抽象化意味着隐藏对象的复杂实现细节,只向用户暴露必要的功 阅读全文
posted @ 2025-09-27 14:31 李大嘟嘟 阅读(12) 评论(0) 推荐(0)
摘要:优化器(Optimizer)是深度学习和机器学习中最核心的组件之一。 简单来说,优化器的作用就是指导模型如何学习。它决定了在反向传播计算出梯度(模型应该朝哪个方向调整)之后,模型应该以多大的“步伐”和什么样的方式来实际更新它的权重和偏置。 你可以把优化器看作是一个驾驶员,而梯度(Loss 对权重的导 阅读全文
posted @ 2025-09-27 14:27 李大嘟嘟 阅读(20) 评论(0) 推荐(0)
摘要:Dropout(丢弃法)是一种在神经网络训练中广泛使用的正则化(Regularization)技术。它的主要作用是防止模型在训练集上过拟合(Overfitting),从而提高模型在未见过数据(测试集)上的泛化能力。 Dropout 类的作用和工作原理 如果你要在你的面向对象的神经网络框架中实现一个 阅读全文
posted @ 2025-09-27 14:10 李大嘟嘟 阅读(22) 评论(0) 推荐(0)
摘要:np.random.rand 是 NumPy 库中一个常用的函数,用于创建包含随机数(浮点数)的数组。 np.random.rand 详解 1. 核心功能 np.random.rand 生成的随机数服从**[0.0, 1.0) 范围内的均匀分布(Uniform Distribution)**。 均匀 阅读全文
posted @ 2025-09-27 13:39 李大嘟嘟 阅读(18) 评论(0) 推荐(0)
摘要:# 继承 class F: def __init__(self): self.info = "hello Father" def fun1(self): return self.info class S(F): pass f = F() s = S() print(f.fun1()) # hello 阅读全文
posted @ 2025-09-25 15:50 李大嘟嘟 阅读(5) 评论(0) 推荐(0)