07 2023 档案

线性代数本质理解回顾(六)点积与对偶性
摘要:这个计算有一个完美的几何解释。 当两个向量的大致方向相同,则为正。若垂直 则为0. 若相反,则为负。 点积与顺序无关让我感到惊讶。直观上说说为什么无关,如果有对称性,则可以利用对称性。 为什么点积是对应坐标相乘并将结果相加? 在继续深入之前,我想讨论一下 多维空间到一维空间的线性变换。 有不少函数能 阅读全文

posted @ 2023-07-03 17:46 nlp如此迷人 阅读(96) 评论(0) 推荐(0)

线性代数本质理解回顾(五) 非方阵
摘要:不同维度之间的变换是合理的。 所以你看到3*2的矩阵,你就明白它的几何意义是将二维空间映射到三维空间上,因为矩阵有两列表明输入空间有两个基向量,有三行表明每一个基向量在变换后,都用三个独立的坐标来描述。类似的,当你看到一个两行三列的2*3矩阵时,你觉得它代表什么? 因此这是一个从三维空间到二维空间的 阅读全文

posted @ 2023-07-02 22:30 nlp如此迷人 阅读(83) 评论(0) 推荐(0)

线性代数本质理解回顾(四) 逆矩阵、列空间与零空间
摘要:此视频要通过线性变换来了解逆矩阵、列空间、秩和零空间的概念。 线性代数一个作用是解方程组 这是线性方程组+ 事实上,你可以将所有的方程合并为一个向量方程。这个方程有一个包含所有常数系数的矩阵。 这不仅仅是将方程组写进一行的书写技巧。还阐释了这个问题中优美的几何直观部分。 矩阵A代表一种线性变换,所以 阅读全文

posted @ 2023-07-02 16:57 nlp如此迷人 阅读(204) 评论(0) 推荐(0)

线性代数本质理解回顾(三) 行列式
摘要:内容来源:线性代数的本质 - 05 - 行列式_哔哩哔哩_bilibili 现在想象一些线性变换,你可能注意到其中有的空间向外拉伸,有的则向内挤压。 有件事对理解这些线性变换很有用。那就是测量变换究竟对空间有多少拉伸或挤压。更具体一点,就是测量一个给定区域面积增大或减小的比例。 以下面这个矩阵为例。 阅读全文

posted @ 2023-07-02 08:46 nlp如此迷人 阅读(147) 评论(0) 推荐(0)

线性代数理解回顾(二)
摘要:矩阵乘法与线性变换复合 内容来源:【熟肉】线性代数的本质 - 04 - 矩阵乘法与线性变换复合_哔哩哔哩_bilibili 很多时候你想描述这样一种作用:一个变换之后再进行另外一个变换,比如说先将整个平面逆时针90度后,再进行一次剪切会发生什么, 从头到位的总体作用是另一个线性变换。这个新的线性变换 阅读全文

posted @ 2023-07-02 07:52 nlp如此迷人 阅读(20) 评论(0) 推荐(0)

线性代数理解回顾(一)
摘要:视频来源:线性代数的本质 - 02 - 线性组合、张成的空间与基_哔哩哔哩_bilibili 线性相关 :对增加张成空间无贡献 线性无关:对增加张成空间有贡献 向量空间的一个基是张成该空间的一个线性无关的向量集。(只要能遍历空间就可以作为这个空间的基) 直观的说如果一个变换具有以下两条性质,我们就称 阅读全文

posted @ 2023-07-01 22:33 nlp如此迷人 阅读(90) 评论(0) 推荐(0)

导航