数据科学家成长之旅

关注 机器学习,深度学习,自然语言处理,数学

关于n维和n-1维欧式空间

我们从小就说,“点动成线,线动成面,面动成体”,其中的空间的概念到底是啥?之前没有好好想过,在机器学习中多次遇到“空间”、“超平面”,“分割面”等概念,一会n维,一会儿n+1维,理解的有点模糊。今儿突然应该是彻底想明白了,记录一下。
  
  先抛出一个问题:\(x_1 + x_2 + 2 = 0\) 请问,是几维空间,对,是二维空间,那是平面,还是直线哪?
  咦,二维空间,我们通常不是说二维空间是平面吗,但这里,怎么看都是一个直线方程啊。。。怎么理解 \(x_1 + x_2 + 2 = 0\) “二维的方程表达的是直线”,但同时通常说“二维平面”这一现象?

  
  二维本质是面,是指在两个变量没有任何的约束情况下的任意组合(基坐标的线性组合)\(a_1x_1+a_2x_2 = {\bf ax}\)\((a_1,a_2)\),则所有点的集合即为整个平面。

  如果,这个线性组合被约束了,比如:\(x_1 + x_2 + 2 = 0\),则相当于一个变量能被其他变量的线性组合表达,其本质是只有1个自由变量,所以本质上是被降了一维(n-1维),所以看起来是二维的自由变量,本质上是一个自由变量,另外一个是因变量,故其本质是一维的“线”。

  若果令 \(L = a_0+a_1x_1+a_2x_2={\bf ax}\)(这里把截距单独拿出来了),跟则在 \(L\) 根据 \({\bf a}\) 的变化,可以表示二维平面中的任意一条直线,从这个角度理解,所有的直线的集合不就构成了面吗。并且,为了形式上的统一,二维空间中的任意一条直线\(L\),可以表达为:\(a_0+a_1x_1+a_2x_2=0\) 形式

  在机器学习中,为了将这个 \(0\) 作为应变量(类别) \(y\) 的比较对象,将几何意义直线 \(L\) 的作为代数表达 \(y=0\)
  上面的例子中,若 \(y\)\(x_1 + x_2 + 2 = 0\) 的直线,如果令 \(y=2\)\(y=x_1 + x_2 + 2 = 2\) 相当于该直线向下平移了2个单位距离,因此在SVM中,本质上使用距离的度量去表示因变量(样本类别)——整个SVM模型的研究坐标空间只有特征空间(最后一个坐标是第n个自变量\(x_n\),不是因变量 \(y\))。因此,有了 \(y=x_1 + x_2 + 2 = 0\) 这条直线(超平面),可以很方便的写出超平面的上下方区域的代数形式:\(x_1 + x_2 + 2 > 0\) 为下半面,\(x_1 + x_2 + 2 < 0\) 为直线的上半面——大于0在直线左边,小于0在直线右边。至于到底是上方还是下方,则看直线的斜率——斜率为正,大于0则在上方;否则在下方。
  
注:
  由于我们是在二维平面上讨论 \(y=x_1 + x_2 + 2\) 这个三个变量的事情,相当于在将三维空间的事情,放在二维空间上来讨论,用直线位置的变化来表示第三维的变量的取值;如果上升一个坐标维度,放在三维空间内讨论,那么就是正类、负类分别散落在平面\(y=0\)散点图

![](http://ogex32jwc.bkt.clouddn.com/%E5%85%B3%E4%BA%8En%E7%BB%B4%E5%87%A0%E4%BD%95%E7%A9%BA%E9%97%B4.png)

关于隐函数和其求导,这边文章写的挺好,可以看看:
《小谈导数、梯度和极值》

posted on 2017-03-03 17:43  会飞的蝸牛  阅读(2637)  评论(0编辑  收藏  举报

导航