范数

衡量一个向量的大小,在机器学习中,使用称为范数(norm)的函数来衡量向量大小, $L_p $范数的通用形式如下:

             $||X||_p  =  (\sum\limits_i |x_i|^p)^\frac{1}{p} , $ 其中 $p∈R, p≥1$

当 $p=1$时, $L_1 $各个元素的绝对值之和。

            $||X||_1  = \sum\limits_i |x_i| $

曼哈顿距离的正式意义为L1-距离或城市区块距离:

            $d  = |x_1 -  x_2|  + |y_1 -  y_2| $

当 $p=2$时, $L_2 $被称作欧几里德范数(Euclidean norm)。它表示从原点出发到向量x确定的点的欧几里德距离。

            $||X||_2  = \sqrt{ (x_1^2 + x_2^2)} $

欧几里德距离也即欧氏距离:

二维空间的公式:

            $\rho = \sqrt{ (x_2 - x_1)^2 + (y_2 - y_1)^2}  , |X| = \sqrt {x_2^2 + y_2^2}$

其中, $\rho$为点$(x_2, y_2)$与点$(x_1, y_1)$之间的欧氏距离;$|X|$为点$(x_2, y_2)$到原点的欧氏距离。

三维空间的公式:

            $\rho = \sqrt{ (x_2 - x_1)^2 + (y_2 - y_1)^2 + (z_2 - z_1)^2}  , |X| = \sqrt {x_2^2 + y_2^2 + z_2^2}$

          

$L_2 $范数常被用来衡量向量的大小,因为它便于求导计算(如对向量中每个元素的导数只取决于对应的元素,但是它也有缺陷,即它在原点附近增长得十分缓慢),可以简单用点积$x^Tx$来计算。范数是将向量映射到非负值的函数。直观上来说,向量 x的范数就是衡量从原点到 x的距离。更严格来说,范数满足下列性质的函数:
           $f(x)=0⟹x=0$

           $f(x+y)≤f(x)+f(y)$

           $∀α∈R,f(αx)=|α|f(x)$

当$p=1$时,称为$L_1 $范数,是向量元素绝对值之和;

当$p=0$时,上面的定义没有包含,称为0范数,定义为向量非零元素的数量

max范数(max norm):这个范数表示向量中具有最大幅度得元素的绝对值,用$L_∞ $范数表示,形式为:
           $||x||_∞=max|x_i|$

两个向量的点积(dot product)也可以用范数来表示。具体地
           $x^⊤y=||x||_2||y||_2cosθ$

 

 

矩阵的范数(matrix norm)

最常用的就是 F-范数(Frobenius norm),Frobenius范数,计算方式为矩阵元素的绝对值的平方和再开方。
           $||A||_F = \sqrt {\sum\limits_i \sum\limits_j |a_{ij}|^2}$

设:向量$X∈R^n$,矩阵$A∈R^{n \times n}$,例如矩阵A为:

A=[2,  3,  -5,  -7;

     4,  6,   8,   -4;

     6, -11, -3, 16];

(1)矩阵的1-范数,又名列模(和)范数,即矩阵列向量中绝对值之和的最大值:

 

矩阵的每一列上的元素绝对值先求和,再从中取个最大的,(列和最大);上述矩阵A的1-范数为:27

(2)矩阵的2-范数,又名谱(模)范数,计算方法为$A^TA$矩阵的最大特征值的开平方:

 

其中 $\lambda_i$为的$A^TA$特征值;矩阵的2-范数即矩阵$A^TA$的最大特征值开平方根。

简化为 $||A||_2 = \sqrt \lambda_1$,$\lambda_1$为$A^TA$的最大特征值。

(3)矩阵的无穷范数(行模):

 

矩阵的每一行上的元素绝对值先求和,再从中取个最大的,行和最大。

 

补充:

欧氏距离区别于点到直接的距离

设直线 $L$ 的方程为$Ax + By + C = 0$,点$ P $的坐标为$(X_0,Y_0)$,则点$ P $到直线 $L $的距离为

             

 

posted @ 2019-07-22 11:44  kitiz  阅读(1148)  评论(0)    收藏  举报