上一页 1 2 3 4 5 6 ··· 41 下一页
摘要: 叶子张量(Leaf Tensor)和非叶子张量(Non-leaf Tensor)是 PyTorch 计算图中的两个核心概念,核心区别体现在创建方式、在计算图中的角色以及梯度存储行为上,具体差异如下: 1. 创建方式不同 叶子张量:通过直接初始化创建(如 torch.tensor()、torch.ze 阅读全文
posted @ 2025-11-11 14:05 姚春辉 阅读(8) 评论(0) 推荐(0)
摘要: 张量相乘核心结论:需先明确乘法类型(元素积/矩阵积/点积),不同类型对应不同维度要求,结果维度由乘法规则决定,核心分三类常见运算。 一、元素积(Hadamard积):对应元素直接相乘 核心要求:张量维度必须完全一致(无需广播,广播仅适用于加减,不适用于元素积)。 运算逻辑:两个张量相同位置的元素逐一 阅读全文
posted @ 2025-11-11 11:14 姚春辉 阅读(19) 评论(0) 推荐(0)
摘要: 张量相加的核心结论是:必须满足“广播兼容”(维度匹配或可扩展为相同维度),运算时对应位置元素逐一相加,结果维度与广播后的维度一致。 核心规则 维度匹配要求:要么张量维度完全相同(如2×3张量 + 2×3张量),要么满足广播条件(低维张量可扩展为高维张量的维度,如1×3张量 + 2×3张量)。 元素运 阅读全文
posted @ 2025-11-11 11:14 姚春辉 阅读(6) 评论(0) 推荐(0)
摘要: 这个问题抓得很准,核心结论是:向量是张量的特殊形式(1维张量),张量是向量的“高维扩展”,二者是“特殊与一般”的关系,核心区别在于维度和数据承载能力。 1. 定义与维度差异 向量:严格来说是1维张量,只有“长度”一个维度,用有序数组表示(如[1,2,3])。 张量:可表示0维到N维的结构化数据,维度 阅读全文
posted @ 2025-11-10 18:07 姚春辉 阅读(21) 评论(0) 推荐(0)
摘要: 这个区分很关键,核心结论是:线性特征是“数据规律呈直线/平面关系,可直接叠加”,非线性特征是“数据规律呈曲线/复杂关系,无法简单叠加”,深度学习的核心就是捕捉非线性特征。 1. 线性特征:简单直接的“比例关系” 核心特点:输入和输出满足“加性+比例性”,图形上是直线(2维)或平面(高维)。 生活例子 阅读全文
posted @ 2025-11-10 17:06 姚春辉 阅读(9) 评论(0) 推荐(0)
摘要: 深度学习的核心,本质是 “通过可学习的参数化模型,从数据中自动学习多层非线性表征,再用梯度下降迭代优化,最终实现输入到输出的精准映射” —— 一句话拆解为3个不可分割的核心要素,贯穿所有深度学习任务(分类、生成、回归等): 1. 核心载体:多层非线性网络(建模“表征能力”) 深度学习的“深度”本质是 阅读全文
posted @ 2025-11-10 16:12 姚春辉 阅读(5) 评论(0) 推荐(0)
摘要: 拟合其实就是让模型“模仿”数据规律的过程,像给一堆散落的点画一条最贴合的线(或曲线、曲面)。 通俗理解:“找规律”的过程 比如你手里有10组“身高-体重”数据,想通过身高猜体重: 拟合就是找一个公式(比如“体重=0.6×身高-20”),让这个公式算出的体重,和真实体重尽可能接近; 模型(这里的公式) 阅读全文
posted @ 2025-11-10 16:03 姚春辉 阅读(6) 评论(0) 推荐(0)
摘要: 在关系数据库设计中,1NF(第一范式)、2NF(第二范式)、3NF(第三范式)的核心目标是消除数据冗余和避免操作异常(插入、删除、更新异常),它们的区别在于对“函数依赖”的约束强度逐级增强。以下从定义、核心要求、反例(不满足该范式的表)、正例(满足该范式的表)四个维度,结合同一业务场景详细说明: 基 阅读全文
posted @ 2025-09-28 16:25 姚春辉 阅读(212) 评论(0) 推荐(0)
摘要: 机器学习的核心是让模型从数据中学习输入与输出之间的映射规律(如特征与标签的关联、数据的内在结构、决策策略等),这些规律最终以模型参数的形式被存储和体现。而训练好的模型参数必须被保存,否则每次次次使用模型时都需要重新训练,这在实际应用中是不可行的。 一、机器学习到底在“学习”什么? 如前文所述,机器学 阅读全文
posted @ 2025-09-24 16:13 姚春辉 阅读(42) 评论(0) 推荐(0)
摘要: 机器学习的核心是让计算机通过数据自动学习“规律”或“模式”,而非依赖人类手动编写的固定规则,最终实现“对未知情况的预测或决策”。这种“学习”本质上是模型通过数据调整自身参数,从而建立“输入数据”与“期望输出”之间的映射关系——既可以是显性的规律(如“图片中像素特征与‘猫’类别的关联”),也可以是隐性 阅读全文
posted @ 2025-09-24 13:57 姚春辉 阅读(43) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 ··· 41 下一页