一文读懂机器学习,大数据/自然语言处理/算法全有了……

原文地址
http://www.open-open.com/lib/view/open1420615208000.html
http://www.cnblogs.com/subconscious/p/4107357.html

引论


在本篇文章中,我将对机器学习做个概要的介绍。本文的目的是能让即便全然不了解机器学习的人也能了解机器学习。而且上手相关的实践。这篇文档也算是 EasyPR开发的番外篇。从这里開始。必须对机器学习了解才干进一步介绍EasyPR的内核。当然,本文也面对一般读者。不会对阅读有相关的前提要求。

在进入正题前。我想读者心中可能会有一个疑惑:机器学习有什么重要性,以至于要阅读完这篇非常长的文章呢?

我并不直接回答这个问题前。

相反,我想请大家看两张图
下图是图一:
这里写图片描写叙述
图1 机器学习界的执牛耳者与互联网界的大鳄的联姻

这幅图上上的三人是当今机器学习界的执牛耳者。


中间的是Geoffrey Hinton, 加拿大多伦多大学的教授。如今被聘为“Google大脑”的负责人。


右边的是Yann LeCun, 纽约大学教授,如今是Facebook人工智能实验室的主任。
而左边的大家都非常熟悉,Andrew Ng。中文名吴恩达,斯坦福大学副教授,如今也是“百度大脑”的负责人与百度首席科学家。

这三位都是眼下业界炙手可热的大牛,被互联网界大鳄求贤若渴的聘 请,足见他们的重要性。而他们的研究方向,则全部都是机器学习的子类–深度学习。

下图是图二:
这里写图片描写叙述
图2 语音助手产品

这幅图上描写叙述的是什么?Windows Phone上的语音助手Cortana,名字来源于《光环》中士官长的助手。相比其它竞争对手,微软非常迟才推出这个服务。Cortana背后的核心技术是 什么,为什么它能够听懂人的语音?其实,这个技术正是机器学习。机器学习是全部语音助手产品(包括Apple的siri与Google的Now)能够跟人交互的关键技术。

通过上面两图,我相信大家能够看出机器学习似乎是一个非常重要的,有非常多未知特性的技术。学习它似乎是一件有趣的任务。实际上。学习机器学习不仅能够帮助我们了解互联网界最新的趋势,同一时候也能够知道伴随我们的便利服务的实现技术。

机器学习是什么,为什么它能有这么大的魔力,这些问题正是本文要回答的。

同一时候,本文叫做“从机器学习谈起”。因此会以漫谈的形式介绍跟机器学习相关的全部内容,包括学科(如数据挖掘、计算机视觉等),算法(神经网络,svm)等等。

一个故事说明什么是机器学习


机器学习这个词是让人疑惑的。首先它是英文名称Machine Learning(简称ML)的直译。在计算界Machine一般指计算机。

这个名字使用了拟人的手法。说明了这门技术是让机器“学习”的技术。可是计算机是死的,怎么可能像人类一样“学习”呢?

传统上假设我们想让计算机工作,我们给它一串指令,然后它遵照这个指令一步步运行下去。

有因有果,非常明白。但这种方式在机器学习中行不通。

机器学习根本不接受你输入的指令,相反,它接受你输入的数据! 也就是说,机器学习是一种让计算机利用数据而不是指令来进行各种工作的方法。这听起来非常不可思议,但结果上却是非常可行的。“统计”思想将在你学习“机 器学习”相关理念时无时无刻不伴随,相关而不是因果的概念将是支撑机器学习能够工作的核心概念。你会颠覆对你曾经全部程序中建立的因果无处不在的根本理 念。

以下我通过一个故事来简单地阐明什么是机器学习。这个故事比較适合用在知乎上作为一个概念的阐明。在这里,这个故事没有展开。但相关内容与核心是存 在的。

假设你想简单的了解一下什么是机器学习,那么看完这个故事就足够了。

假设你想了解机器学习的很多其它知识以及与它关联紧密的当代技术,那么请你继续往下 看。后面有很多其它的丰富的内容。

这个样例来源于我真实的生活经验,我在思考这个问题的时候突然发现它的过程能够被扩充化为一个完整的机器学习的过程,因此我决定使用这个样例作为全部介绍的開始。这个故事称为“等人问题”

我相信大家都有跟别人相约,然后等人的经历。现实中不是每一个人都那么守时的,于是当你碰到一些爱迟到的人,你的时间不可避免的要浪费。

我就碰到过这种一个样例。

对我的一个朋友小Y而言,他就不是那么守时,最常见的表现是他常常迟到。当有一次我跟他约好3点钟在某个麦当劳见面时,在我出门的那一刻我突然想到一个问题:我如今出发合适么?我会不会又到了地点后。花上30分钟去等他?我决定採取一个策略解决问题。

要想解决问题,有好几种方法。


第一种方法是採用知识:我搜寻能够解决问题的知识。但非常遗憾。没有人会把怎样等人这个问题作为知识传授,因此 我不可能找到已有的知识能够解决问题。
另外一种方法是问他人:我去询问他人获得解决问题的能力。可是相同的,这个问题没有人能够解答,由于可能没人碰上跟我一样的情况。


第三种方法是准则法:我问自己的内心,我有否设立过什么准则去面对这个问题?比如,不管别人怎样,我都会守时到达。但我不是个死板的 人。我没有设立过这种规则。

其实,我相信有种方法比以上三种都合适。我把过往跟小Y相约的经历在脑海中重现一下,看看跟他相约的次数中,迟到占了多大的比例。而我利用这来预 測他这次迟到的可能性。假设这个值超出了我心里的某个界限,那我选择等一会再出发。

假设我跟小Y约过5次,他迟到的次数是1次,那么他按时到的比例为 80%,我心中的阈值为70%,我觉得这次小Y应该不会迟到,因此我按时出门。假设小Y在5次迟到的次数中占了4次。也就是他按时到达的比例为20%,由 于这个值低于我的阈值。因此我选择推迟出门的时间。这种方法从它的利用层面来看,又称为经验法。在经验法的思考过程中。我其实利用了以往全部相约的数 据。因此也能够称之为依据数据做的推断。

依据数据所做的推断跟机器学习的思想根本上是一致的。

刚才的思考过程我仅仅考虑“频次”这种属性。在真实的机器学习中,这可能都不算是一个应用。

一般的机器学习模型至少考虑两个量:一个是因变量,也就是 我们希望预測的结果,在这个样例里就是小Y迟到与否的推断。还有一个是自变量,也就是用来预測小Y是否迟到的量。

假设我把时间作为自变量,譬如我发现小Y所 有迟到的日子基本都是星期五,而在非星期五情况下他基本不迟到。于是我能够建立一个模型,来模拟小Y迟到与否跟日子是否是星期五的概率。
见下图:
这里写图片描写叙述
这种图就是一个最简单的机器学习模型。称之为决策树

当我们考虑的自变量仅仅有一个时,情况较为简单。假设把我们的自变量再添加一个。比如小Y迟到的部分情况时是在他开车过来的时候(你能够理解为他开车水平较臭,或者路较堵)。于是我能够关联考虑这些信息。建立一个更复杂的模型。这个模型包括两个自变量与一个因变量。

再更复杂一点,小Y的迟到跟天气也有一定的原因,比例如以下雨的时候,这时候我须要考虑三个自变量。

假设我希望能够预測小Y迟到的详细时间,我能够把他每次迟到的时间跟雨量的大小以及前面考虑的自变量统一建立一个模型。于是我的模型能够预測值,例 如他大概会迟到几分钟。

这样能够帮助我更好的规划我出门的时间。

在这种情况下,决策树就无法非常好地支撑了,由于决策树仅仅能预測离散值。

我们能够用节2所 介绍的线型回归方法建立这个模型。

假设我把这些建立模型的过程交给电脑。

比方把全部的自变量和因变量输入。然后让计算机帮我生成一个模型,同一时候让计算机依据我当前的情况,给出我是否须要迟出门,须要迟几分钟的建议。

那么计算机运行这些辅助决策的过程就是机器学习的过程。

机器学习方法是计算机利用已有的数据(经验)。得出了某种模型(迟到的规律),并利用此模型预測未来(是否迟到)的一种方法。

通过上面的分析,能够看出机器学习与人类思考的经验过程是相似的,只是它能考虑很多其它的情况。运行更加复杂的计算。其实。机器学习的一个主要目的就 是把人类思考归纳经验的过程转化为计算机通过对数据的处理计算得出模型的过程。经过计算机得出的模型能够以近似于人的方式解决非常多灵活复杂的问题。

以下,我会開始对机器学习的正式介绍。包括定义、范围。方法、应用等等,都有所包括。

机器学习的定义


从广义上来说,机器学习是一种能够赋予机器学习的能力以此让它完毕直接编程无法完毕的功能的方法。但从实践的意义上来说。机器学习是一种通过利用数据。训练出模型,然后使用模型预測的一种方法。

让我们详细看一个样例。
这里写图片描写叙述
图4 房价的样例

拿国民话题的房子来说。如今我手里有一栋房子须要售卖,我应该给它标上多大的价格?房子的面积是100平方米,价格是100万。120万。还是140万?

非常显然,我希望获得房价与面积的某种规律。

那么我该怎样获得这个规律?用报纸上的房价平均数据么?还是參考别人面积相似的?不管哪种,似乎都并非太靠谱。

我如今希望获得一个合理的,而且能够最大程度的反映面积与房价关系的规律。于是我调查了周边与我房型相似的一些房子,获得一组数据。这组数据中包括了大大小小房子的面积与价格。假设我能从这组数据中找出面积与价格的规律,那么我就能够得出房子的价格。
对规律的寻找非常easy,拟合出一条直线,让它“穿过”全部的点,而且与各个点的距离尽可能的小。

通过这条直线。我获得了一个能够最佳反映房价与面积规律的规律。这条直线同一时候也是一个下式所表明的函数:

房价 = 面积 * a + b

上述中的a、b都是直线的參数。获得这些參数以后。我就能够计算出房子的价格。

假设a = 0.75,b = 50,则房价 = 100 * 0.75 + 50 = 125万。这个结果与我前面所列的100万。120万,140万都不一样。

由于这条直线综合考虑了大部分的情况,因此从“统计”意义上来说,这是一个最合理的预測。

在求解过程中透露出了两个信息:

1.房价模型是依据拟合的函数类型决定的。
假设是直线,那么拟合出的就是直线方程。假设是其它类型的线,比如抛物线,那么拟合出的就是抛物线方程。

机器学习有众多算法。一些强力算法能够拟合出复杂的非线性模型,用来反映一些不是直线所能表达的情况。

2.假设我的数据越多。我的模型就越能够考虑到越多的情况,由此对于新情况的预測效果可能就越好。
这是机器学习界“数据为王”思想的一个体现。一般来说(不是绝对),数据越多。最后机器学习生成的模型预測的效果越好。

通过我拟合直线的过程,我们能够对机器学习过程做一个完整的回想。

首先,我们须要在计算机中存储历史的数据。接着,我们将这些 数据通过机器学习算法进行处理,这个过程在机器学习中叫做“训练”,处理的结果能够被我们用来对新的数据进行预測,这个结果一般称之为“模型”。对新数据 的预測过程在机器学习中叫做“预測”。“训练”与“预測”是机器学习的两个过程,“模型”则是过程的中间输出结果。“训练”产生“模型”,“模型”指导 “预測”。

让我们把机器学习的过程与人类对历史经验归纳的过程做个比对。
这里写图片描写叙述
图5 机器学习与人类思考的类比

人类在成长、生活过程中积累了非常多的历史与经验。人类定期地对这些经验进行“归纳”,获得了生活的“规律”。当人类遇到未知的问题或者须要对未来进行“猜測”的时候,人类使用这些“规律”。对未知问题与未来进行“猜測”,从而指导自己的生活和工作。

机器学习中的“训练”与“预測”过程能够相应到人类的“归纳”和“猜測”过程。通过这种相应,我们能够发现,机器学习的思想并不复杂。仅仅是对人 类在生活中学习成长的一个模拟。由于机器学习不是基于编程形成的结果。因此它的处理过程不是因果的逻辑,而是通过归纳思想得出的相关性结论。

这也能够联想到人类为什么要学习历史,历史实际上是人类过往经验的总结。

有句话说得非常好。“历史往往不一样。但历史总是惊人的相似”。

通过学习历 史。我们从历史中归纳出人生与国家的规律,从而指导我们的下一步工作,这是具有莫大价值的。

当代一些人忽视了历史的本来价值,而是把其作为一种宣扬功绩的 手段,这其实是对历史真实价值的一种误用。

机器学习的范围


上文虽然说明了机器学习是什么,可是并没有给出机器学习的范围。

其实,机器学习跟模式识别,统计学习。数据挖掘。计算机视觉,语音识别,自然语言处理等领域有着非常深的联系。

从范围上来说。机器学习跟模式识别,统计学习。数据挖掘是相似的。同一时候,机器学习与其它领域的处理技术的结合。形成了计算机视觉、语音识别、自然语 言处理等交叉学科。因此,一般说数据挖掘时,能够等同于说机器学习。同一时候。我们寻常所说的机器学习应用。应该是通用的,不仅仅局限在结构化数据,还有图 像,音频等应用。

在这节对机器学习这些相关领域的介绍有助于我们理清机器学习的应用场景与研究范围。更好的理解后面的算法与应用层次。

下图是机器学习所牵扯的一些相关范围的学科与研究领域。


这里写图片描写叙述

模式识别


模式识别=机器学习
两者的主要差别在于前者是从工业界发展起来的概念。后者则主要源自计算机学科。在著名的 《Pattern Recognition And Machine Learning》这本书中,Christopher M. Bishop在开头是这样说的“模式识别源自工业界,而机器学习来自于计算机学科。

只是,它们中的活动能够被视为同一个领域的两个方面,同一时候在过去的10 年间,它们都有了长足的发展”。

数据挖掘


数据挖掘=机器学习+数据库
这几年数据挖掘的概念实在是太耳熟能详。差点儿等同于炒作。

但凡说数据挖掘都会吹嘘 数据挖掘怎样怎样。比如从数据中挖出金子,以及将废弃的数据转化为价值等等。可是,我虽然可能会挖出金子。但我也可能挖的是“石头”啊。

这个说法的意思 是。数据挖掘仅仅是一种思考方式。告诉我们应该尝试从数据中挖掘出知识。但不是每一个数据都能挖掘出金子的,所以不要神话它。一个系统绝对不会由于上了一个 数据挖掘模块就变得无所不能(这是IBM最喜欢吹嘘的)。恰恰相反,一个拥有数据挖掘思维的人员才是关键。而且他还必须对数据有深刻的认识,这样才可能从 数据中导出模式指引业务的改善。大部分数据挖掘中的算法是机器学习的算法在数据库中的优化。

统计学习


统计学习近似等于机器学习
统计学习是个与机器学习高度重叠的学科。由于机器学习中的大多数方法来自统计学,甚 至能够觉得。统计学的发展促进机器学习的繁荣昌盛。比如著名的支持向量机算法,就是源自统计学科。可是在某种程度上两者是有分别的,这个分别在于:统计学 习者重点关注的是统计模型的发展与优化,偏数学,而机器学习者更关注的是能够解决问题,偏实践,因此机器学习研究者会重点研究学习算法在计算机上运行的效 率与准确性的提升。

计算机视觉


计算机视觉=图像处理+机器学习
图像处理技术用于将图像处理为适合进入机器学习模型中的输入,机器学习则负责 从图像中识别出相关的模式。

计算机视觉相关的应用非常的多。比如百度识图、手写字符识别、车牌识别等等应用。这个领域是应用前景非常火热的。同一时候也是研究 的热门方向。随着机器学习的新领域深度学习的发展,大大促进了计算机图像识别的效果。因此未来计算机视觉界的发展前景不可估量。

语音识别


语音识别=语音处理+机器学习
语音识别就是音频处理技术与机器学习的结合。语音识别技术一般不会单独使用,通常会结合自然语言处理的相关技术。眼下的相关应用有苹果的语音助手siri等。

自然语言处理


自然语言处理=文本处理+机器学习
自然语言处理技术主要是让机器理解人类的语言的一门领域。

在自然语言处理技 术中,大量使用了编译原理相关的技术,比如词法分析,语法分析等等,除此之外,在理解这个层面,则使用了语义理解,机器学习等技术。作为唯一由人类自身创 造的符号,自然语言处理一直是机器学习界不断研究的方向。依照百度机器学习专家余凯的说法“听与看,说白了就是阿猫和阿狗都会的。而仅仅有语言才是人类独有 的”。怎样利用机器学习技术进行自然语言的的深度理解。一直是工业和学术界关注的焦点。

能够看出机器学习在众多领域的外延和应用。机器学习技术的发展促使了非常多智能领域的进步,改善着我们的生活。

机器学习的方法


通过上节的介绍我们知晓了机器学习的大致范围,那么机器学习里面到底有多少经典的算法呢?在这个部分我会简要介绍一下机器学习中的经典代表方法。这部分介绍的重点是这些方法内涵的思想。数学与实践细节不会在这讨论。

回归算法


在大部分机器学习课程中。回归算法都是介绍的第一个算法。
原因有两个:
一.回归算法比較简单。介绍它能够让人平滑地从统计学迁移到机器学习中。
二. 回归算法是后面若干强大算法的基石。假设不理解回归算法。无法学习那些强大的算法。回归算法有两个重要的子类:即线性回归和逻辑回归。

线性回归就是我们前面说过的房价求解问题。怎样拟合出一条直线最佳匹配我全部的数据?一般使用“最小二乘法”来求解。

“最小二乘法”的思想是这样 的,假设我们拟合出的直线代表数据的真实值。而观測到的数据代表拥有误差的值。为了尽可能减小误差的影响,须要求解一条直线使全部误差的平方和最小。最小 二乘法将最优问题转化为求函数极值问题。函数极值在数学上我们通常会採用求导数为0的方法。

但这种做法并不适合计算机,可能求解不出来。也可能计算量太 大。

计算机科学界专门有一个学科叫“数值计算”,专门用来提升计算机进行各类计算时的准确性和效率问题。

比如,著名的“梯度下降”以及“牛顿法”就是数 值计算中的经典算法。也非常适合来处理求解函数极值的问题。梯度下降法是解决回归模型中最简单且有效的方法之中的一个。

从严格意义上来说,由于后文中的神经网络 和推荐算法中都有线性回归的因子,因此梯度下降法在后面的算法实现中也有应用。

逻辑回归是一种与线性回归非常相似的算法。可是。从本质上讲,线型回归处理的问题类型与逻辑回归不一致。线性回归处理的是数值问题,也就是最后预測 出的结果是数字。比如房价。而逻辑回归属于分类算法,也就是说,逻辑回归预測结果是离散的分类。比如推断这封邮件是否是垃圾邮件,以及用户是否会点击此广 告等等。

实现方面的话。逻辑回归仅仅是对对线性回归的计算结果加上了一个Sigmoid函数,将数值结果转化为了0到1之间的概率(Sigmoid函数的图像 一般来说并不直观,你仅仅须要理解对数值越大,函数越逼近1,数值越小。函数越逼近0),接着我们依据这个概率能够做预測,比如概率大于0.5,则这封邮件 就是垃圾邮件,或者肿瘤是否是恶性的等等。

从直观上来说,逻辑回归是画出了一条分类线
见下图
这里写图片描写叙述
图7 逻辑回归的直观解释
假设我们有一组肿瘤患者的数据,这些患者的肿瘤中有些是良性的(图中的蓝色点)。有些是恶性的(图中的红色点)。这里肿瘤的红蓝色能够被称作数据的 “标签”。

同一时候每一个数据包括两个“特征”:患者的年龄与肿瘤的大小。我们将这两个特征与标签映射到这个二维空间上。形成了我上图的数据。

当我有一个绿色的点时,我该推断这个肿瘤是恶性的还是良性的呢?依据红蓝点我们训练出了一个逻辑回归模型。也就是图中的分类线。这时,依据绿点出如今分类线的左側,因此我们推断它的标签应该是红色,也就是说属于恶性肿瘤。

逻辑回归算法划出的分类线基本都是线性的(也有划出非线性分类线的逻辑回归,只是那样的模型在处理数据量较大的时候效率会非常低)。这意味着当两类之 间的界线不是线性时。逻辑回归的表达能力就不足。

以下的两个算法是机器学习界最强大且重要的算法。都能够拟合出非线性的分类线。

神经网络


神经网络(也称之为人工神经网络。ANN)算法是80年代机器学习界非常流行的算法,只是在90年代中途衰落。如今。携着“深度学习”之势。神经网络重装归来。又一次成为最强大的机器学习算法之中的一个。

神经网络的诞生起源于对大脑工作机理的研究。

早期生物界学者们使用神经网络来模拟大脑。机器学习的学者们使用神经网络进行机器学习的实验。发如今视 觉与语音的识别上效果都相当好。在BP算法(加速神经网络训练过程的数值算法)诞生以后,神经网络的发展进入了一个热潮。BP算法的发明人之中的一个是前面介绍 的机器学习大牛Geoffrey Hinton(图1中的中间者)。

详细说来,神经网络的学习机理是什么?简单来说,就是分解与整合。在著名的Hubel-Wiesel试验中,学者们研究猫的视觉分析机理是这种。
这里写图片描写叙述
图8 Hubel-Wiesel试验与大脑视觉机理
比方说。一个正方形,分解为四个折线进入视觉处理的下一层中。四个神经元分别处理一个折线。每一个折线再继续被分解为两条直线。每条直线再被分解为黑 白两个面。于是,一个复杂的图像变成了大量的细节进入神经元,神经元处理以后再进行整合,最后得出了看到的是正方形的结论。

这就是大脑视觉识别的机理,也 是神经网络工作的机理。

让我们看一个简单的神经网络的逻辑架构。在这个网络中。分成输入层,隐藏层,和输出层。

输入层负责接收信号。隐藏层负责对数据的分解与处理,最后的 结果被整合到输出层。

每层中的一个圆代表一个处理单元。能够觉得是模拟了一个神经元,若干个处理单元组成了一个层,若干个层再组成了一个网络。也就是”神 经网络”。
这里写图片描写叙述
图9 神经网络的逻辑架构
在神经网络中,每一个处理单元其实就是一个逻辑回归模型。逻辑回归模型接收上层的输入,把模型的预測结果作为输出传输到下一个层次。通过这种过程。神经网络能够完毕非常复杂的非线性分类。

下图会演示神经网络在图像识别领域的一个著名应用。这个程序叫做LeNet。是一个基于多个隐层构建的神经网络。

通过LeNet能够识别多种手写数字,而且达到非常高的识别精度与拥有较好的鲁棒性。
这里写图片描写叙述
图10 LeNet的效果展示
右下方的方形中显示的是输入计算机的图像。方形上方的红色字样“answer”后面显示的是计算机的输出。

左边的三条竖直的图像列显示的是神经网络 中三个隐藏层的输出,能够看出。随着层次的不断深入。越深的层次处理的细节越低。比如层3基本处理的都已经是线的细节了。

LeNet的发明人就是前文介绍 过的机器学习的大牛Yann LeCun(图1右者)。

进入90年代,神经网络的发展进入了一个瓶颈期。其主要原因是虽然有BP算法的加速,神经网络的训练过程仍然非常困难。

因此90年代后期支持向量机(SVM)算法代替了神经网络的地位。

SVM(支持向量机)


支持向量机算法是诞生于统计学习界,同一时候在机器学习界大放光彩的经典算法。

支持向量机算法从某种意义上来说是逻辑回归算法的强化:通过给予逻辑回归算法更严格的优化条件,支持向量机算法能够获得比逻辑回归更好的分类界线。可是假设没有某类函数技术,则支持向量机算法最多算是一种更好的线性分类技术。

可是,通过跟高斯“核”的结合,支持向量机能够表达出非常复杂的分类界线,从而达成非常好的的分类效果。

“核”其实就是一种特殊的函数,最典型的特征就是能够将低维的空间映射到高维的空间。
比例如以下图所看到的:
这里写图片描写叙述
图11 支持向量机图例

我们怎样在二维平面划分出一个圆形的分类界线?在二维平面可能会非常困难。可是通过“核”能够将二维空间映射到三维空间,然后使用一个线性平面就能够 达成相似效果。也就是说。二维平面划分出的非线性分类界线能够等价于三维平面的线性分类界线。于是。我们能够通过在三维空间中进行简单的线性划分就能够达 到在二维平面中的非线性划分效果。
这里写图片描写叙述
图12 三维空间的分割
支持向量机是一种数学成分非常浓的机器学习算法(相对的,神经网络则有生物科学成分)。在算法的核心步骤中。有一步证明,即将数据从低维映射到高维不 会带来最后计算复杂性的提升。于是,通过支持向量机算法,既能够保持计算效率,又能够获得非常好的分类效果。因此支持向量机在90年代后期一直占领着机器 学习中最核心的地位,基本代替了神经网络算法。直到如今神经网络借着深度学习又一次兴起。两者之间才又发生了微妙的平衡转变。

聚类算法


前面的算法中的一个显著特征就是我的训练数据中包括了标签,训练出的模型能够对其它未知数据预測标签。在以下的算法中。训练数据都是不含标签的,而 算法的目的则是通过训练。猜測出这些数据的标签。

这类算法有一个统称,即无监督算法(前面有标签的数据的算法则是有监督算法)。

无监督算法中最典型的代表 就是聚类算法。

让我们还是拿一个二维的数据来说,某一个数据包括两个特征。我希望通过聚类算法。给他们中不同的种类打上标签,我该怎么做呢?简单来说。聚类算法就是计算种群中的距离。依据距离的远近将数据划分为多个族群。

聚类算法中最典型的代表就是K-Means算法。

降维算法


降维算法也是一种无监督学习算法,其主要特征是将数据从高维降低到低维层次。在这里,维度其实表示的是数据的特征量的大小,比如,房价包括房子的 长、宽、面积与房间数量四个特征。也就是维度为4维的数据。能够看出来。长与宽其实与面积表示的信息重叠了,比如面积=长 × 宽。通过降维算法我们就能够去除冗余信息,将特征降低为面积与房间数量两个特征,即从4维的数据压缩到2维。

于是我们将数据从高维降低到低维,不仅利于表 示。同一时候在计算上也能带来加速。

刚才说的降维过程中降低的维度属于肉眼可视的层次。同一时候压缩也不会带来信息的损失(由于信息冗余了)。

假设肉眼不可视,或者没有冗余的特征。降维算 法也能工作。只是这样会带来一些信息的损失。可是,降维算法能够从数学上证明。从高维压缩到的低维中最大程度地保留了数据的信息。因此。使用降维算法仍然 有非常多的优点。

降维算法的主要作用是压缩数据与提升机器学习其它算法的效率。通过降维算法。能够将具有几千个特征的数据压缩至若干个特征。另外。降维算法的还有一个 优点是数据的可视化,比如将5维的数据压缩至2维。然后能够用二维平面来可视。降维算法的主要代表是PCA算法(即主成分分析算法)。

推荐算法


推荐算法是眼下业界非常火的一种算法,在电商界,如亚马逊,天猫,京东等得到了广泛的运用。推荐算法的主要特征就是能够自己主动向用户推荐他们最感兴趣的东西,从而添加购买率,提升效益。推荐算法有两个基本的类别:

一类是基于物品内容的推荐,是将与用户购买的内容近似的物品推荐给用户。这种前提是每一个物品都得有若干个标签,因此才干够找出与用户购买物品相似的物品,这样推荐的优点是关联程度较大,可是由于每一个物品都须要贴标签。因此工作量较大。

还有一类是基于用户相似度的推荐。则是将与目标用户兴趣相同的其它用户购买的东西推荐给目标用户,比如小A历史上买了物品B和C,经过算法分析。发现还有一个与小A近似的用户小D购买了物品E,于是将物品E推荐给小A。

两类推荐都有各自的优缺点,在一般的电商应用中,通常是两类混合使用。

推荐算法中最有名的算法就是协同过滤算法。

其它


除了以上算法之外,机器学习界还有其它的如高斯判别。朴素贝叶斯。决策树等等算法。可是上面列的六个算法是使用最多,影响最广。种类最全的典型。

机器学习界的一个特色就是算法众多,发展百花齐放。

以下做一个总结。依照训练的数据有无标签,能够将上面算法分为监督学习算法和无监督学习算法,但推荐算法较为特殊,既不属于监督学习,也不属于非监督学习,是单独的一类。

监督学习算法:线性回归,逻辑回归。神经网络,SVM

无监督学习算法:聚类算法。降维算法

特殊算法:推荐算法

除了这些算法以外,有一些算法的名字在机器学习领域中也常常出现。但他们本身并不算是一个机器学习算法,而是为了解决某个子问题而诞生的。你能够理 解他们为以上算法的子算法,用于大幅度提高训练过程。

当中的代表有:梯度下降法。主要运用在线型回归。逻辑回归。神经网络,推荐算法中;牛顿法。主要运用 在线型回归中。BP算法。主要运用在神经网络中。SMO算法,主要运用在SVM中。

机器学习的应用–大数据


说完机器学习的方法,以下要谈一谈机器学习的应用了。

无疑,在2010年曾经,机器学习的应用在某些特定领域发挥了巨大的作用,如车牌识别,网络攻 击防范,手写字符识别等等。可是。从2010年以后,随着大数据概念的兴起,机器学习大量的应用都与大数据高度耦合。差点儿能够觉得大数据是机器学习应用的 最佳场景。

譬如,但凡你能找到的介绍大数据魔力的文章。都会说大数据怎样准确准确预測到了某些事。

比如经典的Google利用大数据预測了H1N1在美国某小镇的爆发。
这里写图片描写叙述
图13 Google成功预測H1N1
百度预測2014年世界杯。从淘汰赛到决赛全部预測正确。


这里写图片描写叙述
图14 百度世界杯成功预測了全部比赛结果

这些实在太奇妙了。那么到底是什么原因导致大数据具有这些魔力的呢?简单来说,就是机器学习技术。正是基于机器学习技术的应用,数据才干发挥其魔力。

大数据的核心是利用数据的价值,机器学习是利用数据价值的关键技术,对于大数据而言,机器学习是不可或缺的。相反。对于机器学习而言。越多的数据会 越 可能提升模型的精确性,同一时候,复杂的机器学习算法的计算时间也迫切须要分布式计算与内存计算这种关键技术。因此,机器学习的兴旺也离不开大数据的帮助。

大数据与机器学习两者是互相促进,相依相存的关系。

机器学习与大数据紧密联系。

可是,必须清醒的认识到。大数据并不等同于机器学习,同理。机器学习也不等同于大数据。大数据中包括有分布式计算,内存数据库,多维分析等等多种技术。单从分析方法来看,大数据也包括以下四种分析方法:

1.大数据,小分析:即数据仓库领域的OLAP分析思路。也就是多维分析思想。
2.大数据。大分析:这个代表的就是数据挖掘与机器学习分析法。


3.流式分析:这个主要指的是事件驱动架构。


4.查询分析:经典代表是NoSQL数据库。

也就是说,机器学习仅仅是大数据分析中的一种而已。虽然机器学习的一些结果具有非常大的魔力。在某种场合下是大数据价值最好的说明。

但这并不代表机器学习是大数据下的唯一的分析方法。

机器学习与大数据的结合产生了巨大的价值。基于机器学习技术的发展。数据能够“预測”。对人类而言,积累的经验越丰富,阅历也广泛,对未来的推断越 准确。比如常说的“经验丰富”的人比“初出茅庐”的小伙子更有工作上的优势,就在于经验丰富的人获得的规律比他人更准确。

而在机器学习领域。依据著名的一 个实验。有效的证实了机器学习界一个理论:即机器学习模型的数据越多,机器学习的预測的效率就越好。

见下图:
这里写图片描写叙述
这里写图片描写叙述
图15 机器学习准确率与数据的关系

通过这张图能够看出,各种不同算法在输入的数据量达到一定级数后,都有相近的高精确度。于是诞生了机器学习界的名言:成功的机器学习应用不是拥有最好的算法,而是拥有最多的数据。

在大数据的时代。有好多优势促使机器学习能够应用更广泛。

比如随着物联网和移动设备的发展。我们拥有的数据越来越多,种类也包括图片、文本、视频等 非结构化数据,这使得机器学习模型能够获得越来越多的数据。

同一时候大数据技术中的分布式计算Map-Reduce使得机器学习的速度越来越快,能够更方便的 使用。种种优势使得在大数据时代,机器学习的优势能够得到最佳的发挥。

机器学习的子类–深度学习


近来,机器学习的发展产生了一个新的方向,即“深度学习”。

虽然深度学习这四字听起来颇为高大上。但其理念却非常easy,就是传统的神经网络发展到了多隐藏层的情况。

在上文介绍过,自从90年代以后,神经网络已经消寂了一段时间。可是BP算法的发明人Geoffrey Hinton一直没有放弃对神经网络的研究。由于神经网络在隐藏层扩大到两个以上。其训练速度就会非常慢,因此有用性一直低于支持向量机。

2006 年,Geoffrey Hinton在科学杂志《Science》上发表了一篇文章,论证了两个观点:

1.多隐层的神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画。从而有利于可视化或分类。

2.深度神经网络在训练上的难度,能够通过“逐层初始化” 来有效克服
这里写图片描写叙述
通过这种发现,不仅攻克了神经网络在计算上的难度,同一时候也说明了深层神经网络在学习上的优异性。从此,神经网络又一次成为了机器学习界中的主流强大学习技术。同一时候。具有多个隐藏层的神经网络被称为深度神经网络。基于深度神经网络的学习研究称之为深度学习。

由于深度学习的重要性质,在各方面都取得极大的关注,依照时间轴排序,有以下四个标志性事件值得一说:

2012年6月。《纽约时报》披露了Google Brain项目。这个项目是由Andrew Ng和Map-Reduce发明人Jeff Dean共同主导。用16000个CPU Core的并行计算平台训练一种称为“深层神经网络”的机器学习模型。在语音识别和图像识别等领域获得了巨大的成功。Andrew Ng就是文章開始所介绍的机器学习的大牛(图1中右者)。

2012年11月,微软在中国天津的一次活动上公开演示了一个全自己主动的同声传译系统,讲演者用英文演讲。后台的计算机一气呵成自己主动完毕语音识别、英中机器翻译。以及中文语音合成。效果非常流畅,当中支撑的关键技术是深度学习; 2013年1月。在百度的年会上。创始人兼CEO李彦宏高调宣布要成立百度研究院,当中第一个重点方向就是深度学习,并为此而成立深度学习研究院(IDL)。

这里写图片描写叙述
图17 深度学习的发展热潮

文章开头所列的三位机器学习的大牛,不仅都是机器学习界的专家,更是深度学习研究领域的先驱。因此,使他们担任各个大型互联网公司技术掌舵者的原因不仅在于他们的技术实力,更在于他们研究的领域是前景无限的深度学习技术。

眼下业界很多的图像识别技术与语音识别技术的进步都源于深度学习的发展。除了本文开头所提的Cortana等语音助手,还包括一些图像识别应用。当中典型的代表就是下图的百度识图功能。
这里写图片描写叙述
图18 百度识图

深度学习属于机器学习的子类。基于深度学习的发展极大的促进了机器学习的地位提高。更进一步地,推动了业界对机器学习父类人工智能梦想的再次重视。

机器学习的父类–人工智能


人工智能是机器学习的父类。深度学习则是机器学习的子类。

假设把三者的关系用图来表明的话,则是下图:
这里写图片描写叙述
图19 深度学习、机器学习、人工智能三者关系

毫无疑问,人工智能(AI)是人类所能想象的科技界最突破性的发明了,某种意义上来说。人工智能就像游戏最终幻想的名字一样,是人类对于科技界的最 终梦想。从50年代提出人工智能的理念以后,科技界,产业界不断在探索,研究。这段时间各种小说、电影都在以各种方式展现对于人工智能的想象。人类能够发 明相似于人类的机器,这是多么伟大的一种理念。但其实。自从50年代以后,人工智能的发展就磕磕碰碰。未有见到足够震撼的科学技术的进步。

总结起来。人工智能的发展经历了例如以下若干阶段,从早期的逻辑推理,到中期的专家系统。这些科研进步确实使我们离机器的智能有点接近了,但还有一大段 距离。直到机器学习诞生以后。人工智能界感觉最终找对了方向。

基于机器学习的图像识别和语音识别在某些垂直领域达到了跟人相媲美的程度。机器学习使人类第 一次如此接近人工智能的梦想。

其实,假设我们把人工智能相关的技术以及其它业界的技术做一个类比。就能够发现机器学习在人工智能中的重要地位不是没有理由的。

人类差别于其它物体。植物,动物的最主要差别,作者觉得是“智慧”。而智慧的最佳体现是什么?

是计算能力么,应该不是。心算速度快的人我们一般称之为天才。
是反应能力么,也不是,反应快的人我们称之为灵敏。
是记忆能力么,也不是,记忆好的人我们一般称之为过目不忘。


是推理能力么。这种人我或许会称他智力非常高,相似“福尔摩斯”,但不会称他拥有智慧。
是知识能力么,这种人我们称之为博闻广,也不会称他拥有智慧。

想想看我们一般形容谁有大智慧?圣人,诸如庄子,老子等。智慧是对生活的感悟。是对人生的积淀与思考,这与我们机器学习的思想何其相似?通过经验获取规律,指导人生与未来。

没有经验就没有智慧。
这里写图片描写叙述
图20 机器学习与智慧

那么,从计算机来看,以上的种种能力都有种种技术去应对。

比如计算能力我们有分布式计算。反应能力我们有事件驱动架构,检索能力我们有搜索引擎,知识存储能力我们有数据仓库,逻辑推理能力我们有专家系统,可是,唯有相应智慧中最显著特征的归纳与感悟能力。仅仅有机器学习与之相应。这也是机器学习能力最能表征智慧的根本原因。

让我们再看一下机器人的制造,在我们具有了强大的计算,海量的存储,高速的检索。迅速的反应,优秀的逻辑推理后我们假设再配合上一个强大的智慧大脑,一个真正意义上的人工智能或许就会诞生,这也是为什么说在机器学习高速发展的如今,人工智能可能不再是梦想的原因。

人工智能的发展可能不仅取决于机器学习。更取决于前面所介绍的深度学习,深度学习技术由于深度模拟了人类大脑的构成,在视觉识别与语音识别上显著性 的突破了原有机器学习技术的界限,因此极有可能是真正实现人工智能梦想的关键技术。不管是谷歌大脑还是百度大脑,都是通过海量层次的深度学习网络所构成 的。

或许借助于深度学习技术,在不远的将来,一个具有人类智能的计算机真的有可能实现。

最后再说一下题外话。由于人工智能借助于深度学习技术的高速发展。已经在某些地方引起了传统技术界达人的担忧。真实世界的“钢铁侠”。特斯拉CEO 马斯克就是当中之中的一个。

近期马斯克在參加MIT讨论会时。就表达了对于人工智能的担忧。“人工智能的研究就相似于召唤恶魔。我们必须在某些地方加强注意。”

图21 马斯克与人工智能
图21 马斯克与人工智能

虽然马斯克的操心有些危言耸听。可是马斯克的推理不无道理。

“假设人工智能想要消除垃圾邮件的话。可能它最后的决定就是消灭人类。”马斯克觉得预防 此类现象的方法是引入政府的监管。在这里作者的观点与马斯克相似,在人工智能诞生之初就给其加上若干规则限制可能有效,也就是不应该使用单纯的机器学习, 而应该是机器学习与规则引擎等系统的综合能够较好的解决这类问题。由于假设学习没有限制,极有可能进入某个误区,必须要加上某些引导。正如人类社会中,法 律就是一个最好的规则,杀人者死就是对于人类在探索提高生产力时不可逾越的界限。

在这里,必须提一下这里的规则与机器学习引出的规律的不同,规律不是一个严格意义的准则,其代表的很多其它是概率上的指导。而规则则是神圣不可侵犯,不可改动的。规律能够调整。但规则是不能改变的。有效的结合规律与规则的特点,能够引导出一个合理的。可控的学习型人工智能。

机器学习的思考–计算机的潜意识


最后。作者想谈一谈关于机器学习的一些思考。

主要是作者在日常生活总结出来的一些感悟。

回想一下我在节1里所说的故事。我把小Y过往跟我相约的经历做了一个罗列。可是这种罗列以往全部经历的方法仅仅有少数人会这么做。大部分的人採用的是 更直接的方法,即利用直觉。那么,直觉是什么?其实直觉也是你在潜意识状态下思考经验后得出的规律。就像你通过机器学习算法。得到了一个模型,那么你下次 仅仅要直接使用即可了。那么这个规律你是什么时候思考的?可能是在你无意识的情况下,比如睡觉,走路等情况。这种时候,大脑其实也在默默地做一些你察觉不到 的工作。

这种直觉与潜意识,我把它与还有一种人类思考经验的方式做了区分。

假设一个人勤于思考,比如他会每天做一个小结,譬如“吾日三省吾身”。或者他常常与 同伴讨论近期工作的得失,那么他这种训练模型的方式是直接的,明意识的思考与归纳。这种效果非常好。记忆性强。而且更能得出有效反应现实的规律。可是大部 分的人可能非常少做这种总结。那么他们得出生活中规律的方法使用的就是潜意识法。

举一个作者本人关于潜意识的样例。作者本人曾经没开过车,近期一段时间买了车后,天天开车上班。

我每天都走固定的路线。有趣的是。在一開始的几天, 我非常紧张的注意着前方的路况,而如今我已经在无意识中就把车开到了目标。这个过程中我的眼睛是注视着前方的。我的大脑是没有思考,可是我手握着的方向盘 会自己主动的调整方向。也就是说。随着我开车次数的增多,我已经把我开车的动作交给了潜意识。这是非常有趣的一件事。在这段过程中,我的大脑将前方路况的图像 记录了下来,同一时候大脑也记忆了我转动方向盘的动作。经过大脑自己的潜意识思考,最后生成的潜意识能够直接依据前方的图像调整我手的动作。

假设我们将前方的 录像交给计算机,然后让计算机记录与图像相应的驾驶员的动作。

经过一段时间的学习,计算机生成的机器学习模型就能够进行自己主动驾驶了。这非常奇妙,不是么。其 实包括Google、特斯拉在内的自己主动驾驶汽车技术的原理就是这样。

除了自己主动驾驶汽车以外,潜意识的思想还能够扩展到人的交际。

譬如说服别人。一个最佳的方法就是给他展示一些信息,然后让他自己去归纳得出我们想要的 结论。这就好比在阐述一个观点时,用一个事实,或者一个故事,比大段的道理要好非常多。古往今来。但凡优秀的说客,无不採用的是这种方法。

春秋战国时期。各 国合纵连横,常常有各种说客去跟一国之君交流,直接告诉君主该做什么,无异于自寻死路,可是跟君主讲故事,通过这些故事让君主恍然大悟。就是一种正确的过 程。

这里面有很多杰出的代表,如墨子,苏秦等等。

基本上全部的交流过程,使用故事说明的效果都要远胜于阐述道义之类的效果好非常多。为什么用故事的方法比道理或者其它的方法好非常多,这是由于在人成长 的过程,经过自己的思考,已经形成了非常多规律与潜意识。假设你告诉的规律与对方的不相符,非常有可能出于保护。他们会本能的拒绝你的新规律,可是假设你跟他 讲一个故事,传递一些信息,输送一些数据给他,他会思考并自我改变。

他的思考过程实际上就是机器学习的过程,他把新的数据纳入到他的旧有的记忆与数据中。 经过又一次训练。

假设你给出的数据的信息量非常大,大到调整了他的模型,那么他就会依照你希望的规律去做事。有的时候,他会本能的拒绝运行这个思考过程。但 是数据一旦输入。不管他希望与否。他的大脑都会在潜意识状态下思考,而且可能改变他的看法。

假设计算机也拥有潜意识(正如本博客的名称一样)。那么会怎么样?譬如让计算机在工作的过程中。逐渐产生了自身的潜意识。于是甚至能够在你不须要告诉它做什么时它就会完毕那件事。这是个非常有意思的设想,这里留给各位读者去发散思考吧。

总结


本文首先介绍了互联网界与机器学习大牛结合的趋势,以及使用机器学习的相关应用。接着以一个“等人故事”展开对机器学习的介绍。介绍中首先是机器学 习的概念与定义。然后是机器学习的相关学科,机器学习中包括的各类学习算法。接着介绍机器学习与大数据的关系。机器学习的新子类深度学习,最后探讨了一下 机器学习与人工智能发展的联系以及机器学习与潜意识的关联。

经过本文的介绍,相信大家对机器学习技术有一定的了解,比如机器学习是什么,它的内核思想是什 么(即统计和归纳),通过了解机器学习与人类思考的近似联系能够知晓机器学习为什么具有智慧能力的原因等等。

其次。本文漫谈了机器学习与外延学科的关系, 机器学习与大数据相互促进相得益彰的联系,机器学习界最新的深度学习的迅猛发展,以及对于人类基于机器学习开发智能机器人的一种展望与思考,最后作者简单 谈了一点关于让计算机拥有潜意识的设想。

机器学习是眼下业界最为Amazing与火热的一项技术,从网上的每一次淘宝的购买东西,到自己主动驾驶汽车技术,以及网络攻击抵御系统等等。都有机器 学习的因子在内,同一时候机器学习也是最有可能使人类完毕AI dream的一项技术,各种人工智能眼下的应用,如微软小冰聊天机器人,到计算机视觉技术的进步。都有机器学习努力的成分。作为一名当代的计算机领域的开 发或管理人员,以及身处这个世界。使用者IT技术带来便利的人们,最好都应该了解一些机器学习的相关知识与概念。由于这能够帮你更好的理解为你带来莫大便 利技术的背后原理,以及让你更好的理解当代科技的进程。

后记


这篇文档花了作者两个月的时间。最终在2014年的最后一天的前一天基本完毕。通过这篇文章。作者希望对机器学习在国内的普及做一点贡献,同一时候也是 作者本人自己对于所学机器学习知识的一个融汇贯通,总体归纳的提高过程。作者把这么多的知识经过自己的大脑思考。训练出了一个模型。形成了这篇文档。能够 说这也是一种机器学习的过程吧(笑)。

作者所在的行业会接触到大量的数据,因此对于数据的处理和分析是寻常非常重要的工作,机器学习课程的思想和理念对于作者日常的工作指引作用极大,几 乎导致了作者对于数据价值的又一次认识。想想半年前,作者还对机器学习似懂非懂。如今也能够算是一个机器学习的Expert了(笑)。但作者始终觉得,机器 学习的真正应用不是通过概念或者思想的方式。而是通过实践。仅仅有当把机器学习技术真正应用时,才可算是对机器学习的理解进入了一个层次。正所谓再“阳春白 雪”的技术,也必须落到“下里巴人”的场景下运用。眼下有一种风气,国内外研究机器学习的某些学者。有一种高贵的逼格。觉得自己的研究是普通人无法理解 的,可是这种理念是根本错误的。没有在真正实际的地方发挥作用,凭什么证明你的研究有所价值呢?作者觉得必须将高大上的技术用在改变普通人的生活上,才 能发挥其根本的价值。

一些简单的场景,恰恰是实践机器学习技术的最好地方。

推荐几个机器学习算法及应用领域相关的中国大牛


李航


李航:http://research.microsoft.com/en-us/people/hangli/

是MSRA Web Search and Mining Group高级研究员和主管,主要研究领域是信息检索,自然语言处理和统计学习。近年来,主要与人合作使用机器学习方法对信息检索中排序。相关性等问题的研究。曾在人大听过一场他的讲座。对实际应用的问题抽象,转化和解决能力值得学习。

周志华


周志华:http://cs.nju.edu.cn/zhouzh/

是南京大学的杰青,机器学习和数据挖掘方面国内的领军人物。其好几个研究生都进入了美国一流高校如uiuc。cmu等学习和深造。周教授在半监督学习,multi-label学习和集成学习方面在国际上有一定的影响力。另外,他也是ACML的创始人。

人也非常nice。曾经发邮件咨询过一个naive的问题。周老师还在百忙之中回复了我,并对我怎样发邮件给了些许建议。

杨强


杨强:http://www.cse.ust.hk/~qyang/

香港科技大学教授,也是KDD 2012的会议主席,可见功力非同一般。

杨教授是迁移学习的国际领军人物。曾经的中国第一位acm全球冠军上交的戴文渊硕士期间就是跟他合作发表了一系列高水平的文章。还有,杨教授曾有一个关于机器学习和数据挖掘有意思的比喻:比方你训练一仅仅狗,若干年后。假设它忽然有一天能帮你擦鞋洗衣服,那么这就是数据挖掘;要是忽然有一天,你发现狗发装成一个老太婆消失了,那么这就是机器学习。

李建中


李建中:http://db.hit.edu.cn/jianzhongli/

哈工大和黑大共同拥有教授。是分布式数据库的领军人物。

近年来。其团队在不确定性数据。sensor network方面也发表了一系列有名文章。李教授为人师表。教书育人都做得了最好。在圈内是让人称道的好老师和好学者。

唐杰


唐杰:http://keg.cs.tsinghua.edu.cn/jietang/

清华大学副教授。是图挖掘方面的专家。他主持设计和实现的Arnetminer是国内率先的图挖掘系统。该系统也是多个会议的支持商。

张钹:


张钹:http://www.csai.tsinghua.edu.cn/personal_homepage/zhang_bo/index.html

清华大学教授。中科院院士,。现任清华大学信息技术研究院指导委员会主任。微软亚洲研究院技术顾问等。主要从事人工智能、神经网络、遗传算法、智能机器人、模式识别以及智能控制等领域的研究工作。在过去二十多年中。张钹教授系统地提出了问题求解的商空间理
论。

近年来,他建立了神经与认知计算研究中心以及多媒体信息处理研究组。该研究组已在图像和视频的分析与检索方面取得一些重要研究成果。

刘铁岩


刘铁岩:http://research.microsoft.com/en-us/people/tyliu/

MSRA研究主管,是learning to rank的国际知名学者。近年逐步转向管理,研究兴趣则開始关注计算广告学方面。

王海峰


王海峰:http://ir.hit.edu.cn/~wanghaifeng/

信息检索,自然语言处理,机器翻译方面的专家,ACL的副主席,百度高级科学家。近年,在百度主持研发了百度翻译产品。

何晓飞


何晓飞:http://people.cs.uchicago.edu/~xiaofei/

浙江大学教授,多媒体处理。图像检索以及流型学习的国际率先学者。

朱军


朱军:http://www.ml-thu.net/~jun/

清华大学副教授。机器学习绝对重量级新星。主要研究领域是latent variable models, large-margin learning, Bayesian nonparametrics, and sparse learning in high dimensions. 他也是今年龙星计划的机器学习领域的主讲人之中的一个。

吴军


吴军:http://www.cs.jhu.edu/~junwu/

腾讯副总裁。前google研究员。著名《数学之美》和《浪潮之巅》系列的作者。

张栋


张栋:http://weibo.com/machinelearning

前百度科学家和google研究员,机器学习工业界的代表人物之中的一个。

戴文渊


戴文渊:http://apex.sjtu.edu.cn/apex_wiki/Wenyuan_Dai
现百度凤巢ctr预估组leader。

前ACM大赛冠军,硕士期间一系列transfer learning方面的高水平论文让人瞠目结舌。

余凯


余凯:http://mi.eng.cam.ac.uk/~ky219/
余凯博士,百度研究院副院长,深度学习实验室(IDL, Institute of Deep Learning)主任,兼任负责百度图片搜索产品的高级总监。中组部第九批”千人计划“国家特聘专家,国际知名机器学习专家。

他在中国率先推动大数据人工智能在互联网行业的技术研发和创新。

他所带领的团队将深度学习技术成功应用于广告,搜索。图像。语音等方面,取得突破性进展。相继三次获得“百度最高奖”。在他的直接影响下。Andrew Ng等一批世界顶尖技术专家相继添加百度等中国互联网公司。他曾担任斯坦福大学计算机系Adjunct Faculty, 如今是南京大学、北京邮电大学和北京航空航天大学兼职教授,以及中科院计算所客座研究员。

posted @ 2016-01-29 17:04  mengfanrong  阅读(13255)  评论(2编辑  收藏  举报