摘要: ANN-- PyTorch 手机价格分类 导包 import torch from torch.utils.data import TensorDataset from torch.utils.data import DataLoader import torch.nn as nn import t 阅读全文
posted @ 2026-01-12 21:24 xggx 阅读(0) 评论(0) 推荐(0)
摘要: 学习率衰减优化 和 正则化 学习率衰减优化 在训练神经网络时,学习率通常需要随着训练过程动态调整。主要原因如下: 训练后期若学习率过高,可能导致损失函数在最小值附近震荡,难以收敛 若学习率减小过慢,则收敛速度会变慢,训练时间延长 若学习率减小过快,则可能陷入局部最优或提前停止学习 学习率衰减策略通过 阅读全文
posted @ 2026-01-10 17:33 xggx 阅读(0) 评论(0) 推荐(0)
摘要: 梯度下降优化算法 在梯度下降优化算法中,可能会遇到以下情况: 遇到平缓区域,梯度值较小,参数优化变慢 遇到"鞍点",梯度为0,参数无法继续优化 遇到局部最小值,参数无法达到全局最优 为了解决这些问题,研究者们提出了一系列梯度下降优化算法的改进方法,例如:Momentum、AdaGrad、RMSPro 阅读全文
posted @ 2026-01-08 00:39 xggx 阅读(8) 评论(0) 推荐(0)
摘要: 损失函数 概述: 在机器学习和深度学习中,损失函数(Loss Function)用于衡量模型预测值与真实值之间的差异。它是训练过程中优化的目标,通过最小化损失函数来提升模型的性能。 也叫"代价函数"(Cost Function)或"目标函数"(Objective Function)或"误差函数"(E 阅读全文
posted @ 2026-01-06 16:56 xggx 阅读(24) 评论(0) 推荐(0)
摘要: 神经网络基础 构建神经网络 神经网络是由多个神经元组成,构建神经网络就是在构建神经元。以下是神经网络中神经元的构建说明: 接下来,我们使用多个神经元来构建神经网络,相邻层之间的神经元相互连接,并给每一个连接分配一个强度,如下图所示: 神经网络中信息只向一个方向移动,即从输入节点向前移动,通过隐藏节点 阅读全文
posted @ 2026-01-04 16:59 xggx 阅读(2) 评论(0) 推荐(0)
摘要: Pytorch线性回归模拟 import torch from torch.utils.data import TensorDataset # 张量数据集 from torch.utils.data import DataLoader # 数据加载器 from torch import nn ## 阅读全文
posted @ 2026-01-03 17:00 xggx 阅读(13) 评论(0) 推荐(0)
摘要: 自动微分模块 1 多元线性公式 公式:y = wx + b w 的行对应样本特征的个数,列代表神经元个数 2 权重更新公式 w(新) = w(旧) - lr(学习率) * dw (权重的梯度,即损失函数对权重的偏导数) b(新) = b(旧) - lr(学习率) * db (偏置的梯度,即损失函数对 阅读全文
posted @ 2026-01-03 00:26 xggx 阅读(21) 评论(0) 推荐(0)
摘要: 1. 张量简介 张量:存储同一类型元素的容器。 创建方式: torch.tensor():从多种数据结构创建,支持数值和布尔类型。 torch.Tensor():根据形状创建张量,默认数据类型为 float32。 2. 创建张量 2.1 创建特定值张量 torch.ones(), torch.one 阅读全文
posted @ 2026-01-02 18:11 xggx 阅读(9) 评论(0) 推荐(0)
摘要: 前缀和 一维前缀和 一维前缀和主要用于计算任意区间的元素和。 计算前缀和 sum[i] = sum[i - 1] + a[i]; 计算区间[l, r]的元素和 s = sum[r] - sum[l - 1]; 二维前缀和 二维前缀和是一种用于快速计算二维数组中任意子矩阵元素之和。 // 计算矩阵的前 阅读全文
posted @ 2024-07-16 23:37 xggx 阅读(36) 评论(0) 推荐(0)
摘要: 字符串 一、构造函数 char str[]; char *str; string str; // 空字符串 string str(s) // 将字符串s复制给str strcpy(str, s) // C语言形式 str和s类型均为char* string str(s, begin, len); / 阅读全文
posted @ 2024-07-03 16:56 xggx 阅读(51) 评论(0) 推荐(0)