人工智能领域的前沿技术介绍、展望、应用,我们国家的先进或不足,存在的卡脖子技术

现阶段人工智能技术发展特点

经历了60多年的发展后,人工智能已经开始走出实验室,进入到了产业化阶段。

  • 深度学习技术逐渐在各领域开始应用
    深度学习通过构建多隐层模型和海量训练数据,来学习更有用的特征,最终提升分析准确性。深度学习自2006年由Jeffery Hinton实证以来,在云计算、大数据和芯片等的支持下,已经成功地从实验室中走出来,开始进入到了商业应用,并在机器视觉、自然语言处理、机器翻译、路径规划等领域取得了令人瞩目的成绩。

  • 新型算法不断探索
    在深度学习应用逐步深入的同时,学术界也在继续探索新的算法。一方面,继续深度学习算法的深化和改善研究,如深度强化学习、对抗式生成网络、深度森林、图网络、迁移学习等,以进一步提高深度学习的效率和准确率。另一方面,一些传统的机器学习算法重新受到重视,如贝叶斯网络、知识图谱等。另外,还有一些新的类脑智能算法提出来,将脑科学与思维科学的一些新的成果结合到神经网络算法之中,形成不同于深度学习的神经网络技术路线,如胶囊网络等。

  • 基础数据集建设已经成为基本共识
    自从李飞飞等在2009年成功创建ImageNet数据集以来,该数据集就已经成为了业界图形图像深度学习算法的基础数据集,通过举办比赛等方式极大地促进了算法的进步,使得算法分类精度已经达到了95%以上。这也使得一些大型研究机构和企业逐渐认识到了数据的价值,纷纷开始建立自己的数据集,以便进行数据挖掘和提升深度学习模型的准确率。如美国国家标准研究院的Mugshot、谷歌的SVHN、微软的MS COCO等图像基础数据集,斯坦福大学的SQuAD、卡耐基梅隆大学的Q/A Dataset、Salesforce的WikiText等自然语言数据集以及2000 HUB5 English、CHiME、TED-LIUM等语音数据集。

  • 新型计算基础设施陆续成为产业界发展目标
    由于深度学习对算力有较高的需求,因此相继出现了一些专门的计算框架和平台,如伯克利大学的Caffe、微软的CNTK、Facebook的Torch、亚马逊的MXNet、百度的 PaddlePaddle等,尤其是谷歌的TensorFlow能够支持异构设备的分布式计算,其平台API能力已经覆盖了CNN、RNN、LSTM等当前最流行的深度神经网络模型。除了从计算框架软件平台进行研发之外,产业界同时也从硬件方面探索计算能力的提升方法。最为直接的方法就是采用计算能力更强的GPU替代原有的CPU等。此外,谷歌、IBM等一些大型企业在大量采用GPU的同时,也在探索进行符合自身计算环境的芯片研发,从而进一步降低成本、提高效率,因此产生了TPU等性能更加卓越的新型芯片。

人工智能领域的前沿技术介绍、展望、应用

长期来看,人工智能技术将分别沿着算法和算力两条主线向前发展,并逐步带领人类进入到人机协同的新时代。

  • 高度关注类脑智能算法
    深度学习是基于冯·诺依曼体系结构发展起来的。由于受到内存墙等相关方面的制约,难以达到较高的计算效率。为此,近些年来IBM等已经开始进行颠覆冯·诺依曼体系结构的类脑智能算法与技术的探索。类脑智能借鉴大脑中“内存与计算单元合一”等信息处理的基本规律,在硬件实现与软件算法等多个层面,对于现有的计算体系与系统做出本质的变革,并实现在计算能耗、计算能力与计算效率等诸多方面的大幅改进。目前,随机兴奋神经元、扩散型忆阻器等已经在IBM、马萨诸塞州阿姆赫斯特大学、清华大学等机构研制成功,IBM已经研制成功TrueNorth芯片,清华大学团队也成功研制出了基于忆阻器的PUF芯片。

  • 智能部署从中心向边缘和终端扩散
    随着智能装备和智能机器人等智能终端的逐渐增多,智能终端的快速反应以及相互之间的协同行动需求将会越来越迫切,对智能服务的实时性将会越来越强烈。这就要求智能服务从云端向网络边缘甚至终端扩散,智能模型与算法需要部署在网络边缘或终端之上,就近提供网络、计算、存储、应用等核心能力,从而满足通信、业务、安全等各方面的关键需求。目前,英伟达、高通等都已经陆续开展了用于边缘网络或终端的AI专用芯片。而随着5G网络的普遍部署,边缘智能将会获得快速的发展。

  • 深度学习通用平台和通用AI芯片将会出现
    随着人工智能应用在生产生活中的不断深入融合,智能终端的互联互通将会成为必然。由于跨框架体系开发及部署需要投入大量资源,因此尽管每个终端的智能模型可能不同,但深度学习计算框架的模型底层表示将会逐渐趋同,形成深度学习通用计算框架和平台。随着计算框架的整合,GPU和TPU等芯片将可能会被通用AI芯片所替代。

  • 量子计算推动形成新一轮计算革命
    不论现在还是将来,人工智能无疑都将是最为消耗计算资源的业务和应用之一,计算效率也将是智能体永恒的追求目标。量子计算具有强大的计算能力和效率,已经成为全球公认的下一代计算技术。IBM已经在近期推出了世界上第一个商用的通用近似量子计算系统里程碑产品IBM Q System One,客户可以通过互联网使用这台量子计算机进行大规模的数据计算,为人工智能计算展示了良好的前景。

人工智能已经逐渐向工业、农业、交通、医疗、金融等各个领域渗透,并开始形成新的业态,成为了新一轮技术革命的制高点。因此,必须积极主动把握人工智能技术和产业发展机遇,认清技术发展趋势,在类脑智能、边缘智能、通用平台与芯片、量子计算等前沿技术领域加快布局,勇闯人工智能科技前沿的“无人区”,才能抓住人工智能时代发展的主动权。

我们国家的先进或不足

  • 我国现在主要集中在应用层,主要在深度学习和计算机视觉方面较领先
    例如百度的自动驾驶代码也震惊了世界。

  • 我国人工智能的原创性理论基础不强,重大原创成果不足;
    在基础理论、核心算法以及关键设备、高端芯片、重大产品与系统、基础材料、元器件、软件与接口等方面,与以美国的人工智能发达国家相比还存在较大差距。人工智能产业结构布局也还不完善,人工智能人才队伍,特别是尖端人才不能满足发展需求等。

  • 主流技术深度学习还具有较大局限性
    一是在有限样本和计算单元的情况下,对复杂函数的表示能力有限,其针对复杂分类问题的泛化能力受限。二是通过深度学习是一种基于概率统计的算法,机器系统学习到的是大概率内容,不是知识,无法像人类一样进行举一反三的应用。三是深度学习存在黑箱问题,不能解释其自身做出决策的原因。