神经网络之正交矩阵 - 教程

正交矩阵(Orthogonal Matrix)

1. 定义

一个实矩阵 (Q∈Rn×n)(Q \in \mathbb{R}^{n \times n})(QRn×n) 称为正交矩阵(orthogonal matrix)
它满足:就是若

Q⊤Q=QQ⊤=I Q^\top Q = QQ^\top = IQQ=QQ=I

其中:

  • (Q⊤)(Q^\top)(Q) 表示(Q)(Q)(Q) 的转置;
  • (I)(I)(I)是单位矩阵。

换句话说,正交矩阵的转置等于它的逆矩阵

Q−1=Q⊤ Q^{-1} = Q^\topQ1=Q


2. 几何意义

正交矩阵对应一种长度和角度保持不变的线性变换:

  • 它可以表示 旋转(rotation)反射(reflection)
  • 向量经过正交矩阵变换后,长度不变、夹角不变。

例如,对任意向量 (x):

∣Qx∣=∣x∣ |Qx| = |x|Qx=x


3. 列向量性质

正交矩阵的列向量(或行向量)两两正交且为单位长度:

qi⊤qj={1,i=j 0,i≠j q_i^\top q_j = \begin{cases} 1, & i = j \ 0, & i \neq j \end{cases}qiqj={1,i=j0,i=j


4. 示例

二维旋转矩阵

Q=[cos⁡θ−sin⁡θ sin⁡θcos⁡θ] Q = \begin{bmatrix} \cos\theta & -\sin\theta \ \sin\theta & \cos\theta \end{bmatrix}Q=[cosθsinθsinθcosθ]

验证:

Q⊤Q=[cos⁡2θ+sin⁡2θ0 0cos⁡2θ+sin⁡2θ]=I Q^\top Q = \begin{bmatrix} \cos^2\theta + \sin^2\theta & 0 \ 0 & \cos^2\theta + \sin^2\theta \end{bmatrix} = IQQ=[cos2θ+sin2θ00cos2θ+sin2θ]=I

因此 (Q) 是正交矩阵。


二维反射矩阵

R=[10 0−1] R = \begin{bmatrix} 1 & 0 \ 0 & -1 \end{bmatrix}R=[1001]

验证:

R⊤R=I,det⁡(R)=−1 R^\top R = I, \quad \det(R) = -1RR=I,det(R)=1

因此 ® 也是正交矩阵,对应关于 (x) 轴的反射。


5. 要紧性质

  1. 保持内积
    (Qx)⊤(Qy)=x⊤y (Qx)^\top(Qy) = x^\top y(Qx)(Qy)=xy

  2. 保持长度与角度
    ∣Qx∣=∣x∣,cos⁡∠(Qx,Qy)=cos⁡∠(x,y) |Qx| = |x|, \quad \cos\angle(Qx,Qy) = \cos\angle(x,y)Qx=x,cos(Qx,Qy)=cos(x,y)

  3. 行列式
    det⁡(Q)=±1 \det(Q) = \pm 1det(Q)=±1

  • (+1)(+1)(+1):旋转矩阵
  • (−1)(-1)(1):反射矩阵

6. 反射矩阵与正交矩阵关系

反射矩阵可写为:

R=I−2nn⊤ R = I - 2nn^\topR=I2nn

单位法向量。验证:就是其中 (n)

R⊤R=I,det⁡(R)=−1 R^\top R = I, \quad \det(R) = -1RR=I,det(R)=1

因此反射矩阵也是正交矩阵的一种。


7. 总结

  • 核心特征:转置等于逆矩阵(Q−1=Q⊤)(Q^{-1}=Q^\top)(Q1=Q)
  • 几何意义:保持长度和角度;
  • 行列式:+1 表示旋转,−1 表示反射;
  • 列向量:单位正交;
  • 常见正交矩阵:旋转矩阵、反射矩阵、置换矩阵、单位矩阵等。
posted on 2025-12-04 12:29  ljbguanli  阅读(0)  评论(0)    收藏  举报