Loading

摘要: 支撑向量机 SVM有三宝,间隔对偶核技巧~ 支撑向量机(SVM)算法在分类问题中有着重要地位,其主要思想是最大化两类之间的间隔。按照数据集的特点: 线性可分问题,如之前的感知机算法处理的问题 线性可分,只有一点点错误点,如感知机算法发展出来的 Pocket 算法处理的问题 非线性问题,完全不可分,如 阅读全文
posted @ 2025-05-19 09:57 C_noized 阅读(16) 评论(0) 推荐(0)
摘要: 在PyTorch中,可变对象与不可变对象的特性主要体现在张量(Tensor)的操作机制上,结合Python语言本身的特性,可以总结如下: 一、PyTorch张量的可变性 PyTorch中的张量是可变对象,其核心特性包括: 原地修改 张量的值可以通过索引或特定方法直接修改,而无需创建新对象。例如: a 阅读全文
posted @ 2025-05-06 18:06 C_noized 阅读(55) 评论(0) 推荐(0)
摘要: PyTorch中的梯度计算图(Computational Graph)是其实现自动微分(Autograd)的核心机制,用于动态追踪张量操作并高效计算梯度。以下从原理与实现两个角度详细说明: 一、梯度计算图的核心原理 动态有向无环图(Dynamic DAG) • 结构与组成:计算图由节点(张量或操作) 阅读全文
posted @ 2025-05-06 17:30 C_noized 阅读(181) 评论(0) 推荐(0)
摘要: 降维 我们知道,解决过拟合的问题除了正则化和添加数据之外,降维就是最好的方法。降维的思路来源于维度灾难的问题,我们知道 \(n\) 维球的体积为: \[CR^n \]那么在球体积与边长为 \(2R\) 的超立方体比值为: \[\lim\limits_{n\rightarrow0}\frac{CR^n 阅读全文
posted @ 2025-04-15 17:09 C_noized 阅读(8) 评论(0) 推荐(0)
摘要: 线性分类 对于分类任务,线性回归模型就无能为力了,但是我们可以在线性模型的函数进行后再加入一层激活函数,这个函数是非线性的,激活函数的反函数叫做链接函数。我们有两种线性分类的方式: 硬分类,直接输出观测对应的分类。这类模型的代表为: 线性判别分析(Fisher 判别) 感知机 软分类,产生不同类别的 阅读全文
posted @ 2025-04-15 16:36 C_noized 阅读(9) 评论(0) 推荐(0)
摘要: 线性回归 假设数据集为: \[\mathcal{D}=\{(x_1, y_1),(x_2, y_2),\cdots,(x_N, y_N)\} \]后面我们记: \[X=(x_1,x_2,\cdots,x_N)^T,Y=(y_1,y_2,\cdots,y_N)^T \]线性回归假设: \[f(w)=w 阅读全文
posted @ 2025-04-14 20:45 C_noized 阅读(25) 评论(0) 推荐(0)
摘要: 基础知识 数据集和学习 数据集的矩阵表示: \[X_{N\times p}=(x_{1},x_{2},\cdots,x_{N})^{T},x_{i}=(x_{i1},x_{i2},\cdots,x_{ip})^{T} \]即表示有 \(N\) 个样本,每个样本都是 \(p\) 维向量,每个维度称作属 阅读全文
posted @ 2025-04-14 20:43 C_noized 阅读(15) 评论(0) 推荐(0)
摘要: 1.CPU频率是什么 CPU频率,也称为CPU时钟频率或主频,表示CPU每秒钟完成的时钟周期数,单位是Hz。 主频 = 外频 × 倍频:外频是CPU与主板同步运行的基准频率,倍频是主频与外频的比值。通过调整两者可提升主频,但现代CPU的倍频通常被锁定。 2.指令是什么,指令集是什么,指令和时钟周期的 阅读全文
posted @ 2025-04-03 11:51 C_noized 阅读(26) 评论(0) 推荐(0)
摘要: 要使用扩展欧几里得算法求解形如 $ ax + by = c $ 的二元一次方程的正整数解,需满足 $ c $ 是 $ \gcd(a,b) $ 的倍数(贝祖定理)。 一、判断方程是否有解 必要条件 方程 $ ax + by = c $ 有整数解当且仅当 $ \gcd(a,b) \mid c $(即 $ 阅读全文
posted @ 2025-04-02 21:39 C_noized 阅读(29) 评论(0) 推荐(0)