摘要:
这个问题抓得很准,核心结论是:向量是张量的特殊形式(1维张量),张量是向量的“高维扩展”,二者是“特殊与一般”的关系,核心区别在于维度和数据承载能力。 1. 定义与维度差异 向量:严格来说是1维张量,只有“长度”一个维度,用有序数组表示(如[1,2,3])。 张量:可表示0维到N维的结构化数据,维度 阅读全文
posted @ 2025-11-10 18:07
姚春辉
阅读(21)
评论(0)
推荐(0)
摘要:
这个区分很关键,核心结论是:线性特征是“数据规律呈直线/平面关系,可直接叠加”,非线性特征是“数据规律呈曲线/复杂关系,无法简单叠加”,深度学习的核心就是捕捉非线性特征。 1. 线性特征:简单直接的“比例关系” 核心特点:输入和输出满足“加性+比例性”,图形上是直线(2维)或平面(高维)。 生活例子 阅读全文
posted @ 2025-11-10 17:06
姚春辉
阅读(9)
评论(0)
推荐(0)
摘要:
深度学习的核心,本质是 “通过可学习的参数化模型,从数据中自动学习多层非线性表征,再用梯度下降迭代优化,最终实现输入到输出的精准映射” —— 一句话拆解为3个不可分割的核心要素,贯穿所有深度学习任务(分类、生成、回归等): 1. 核心载体:多层非线性网络(建模“表征能力”) 深度学习的“深度”本质是 阅读全文
posted @ 2025-11-10 16:12
姚春辉
阅读(5)
评论(0)
推荐(0)
摘要:
拟合其实就是让模型“模仿”数据规律的过程,像给一堆散落的点画一条最贴合的线(或曲线、曲面)。 通俗理解:“找规律”的过程 比如你手里有10组“身高-体重”数据,想通过身高猜体重: 拟合就是找一个公式(比如“体重=0.6×身高-20”),让这个公式算出的体重,和真实体重尽可能接近; 模型(这里的公式) 阅读全文
posted @ 2025-11-10 16:03
姚春辉
阅读(6)
评论(0)
推荐(0)

浙公网安备 33010602011771号