【第一部分】视频学习心得及问题总结 |
姓名 | 学习感悟 |
---|---|
唐晓培 | 通过观看视频,深入地学习了人工智能,认识到人工智能是使一部机器像人一样进行感知、认知、决策、执行的人工程序或系统。人工智能现已涉猎到了生活中的各个领域,实现人工智能离不开机器学习和深度学习,机器学习是从数据中自动提取知识,深度学习是学习样本数据的内在规律和表示层次。利用M-P神经元对神经网络进行抽象,从单层感知器(是首个可以学习的人工神经网络)到多层感知器,利用万有逼近定理对任意预定的连续函数和非连续函数进行逼近。BP算法利用信号的正向传播和误差的反向传播来降低网络输出的误差;现在神经网络的模型越来越多,参数越来越多,只用监督学习进行训练容易收敛到局部最小,因此,利用逐层预训练先用无监督学习对每一层进行预训练,然后用经过无监督训练的权值参数作为初始参数进行有监督训练,使网络收敛到最佳。 |
黄浩 | 这两个视频虽然有点冗长,但是对我们深入了解人工智能、深度学习以及神经网络有很大的帮助,虽然有一些部分还不是我能听懂的领域,但是对这些内容有了更好的理解:比如单层的神经网络只能学习线性函数,但是多层就采用了非线性激活函数来得到更好的输出;深度学习也不是那么”好用“,它的输出容易受到攻击;但是与传统的机器学习相对比就好很多,只是方向有点偏向于数学后面没太听进去。视频让我学习到很多,但是也产生了很多让我听不懂的地方,比如玻尔兹曼机。 |
黄月凌 | 通过这两个视频,了解了人工智能的起源发展以及未来前景,了解了我们可以在有意义的模式、数据完备的情况下可以用机器学习解决问题以及深度学习的优点和缺点等等。在第二个视频中对神经网络的讲解,了解了M-P神经元,激活函数的作用以及常见的激活函数。第一个可以自己学习的单层感知器,可以实现简单的与非或门,但是无法解决异或问题。通过组合单层感知器得到多层感知器实现更复杂的问题等。 |
李雨晴 | 看完第一个视频,我了解了一些人工智能的知识。以前一直对这方面比较陌生,抱着似懂非懂的感觉,绪论为我重新打开这扇大门,帮助我了解到人工智能的起源与发展、图灵测试、人工智能的三个层面、人工智能在各个领域的应用,并且介绍了机器学习概念和“能与不能”。人工智能的便捷已经耳熟能详,但在视频中,也介绍了人工智能的十条“不能”。在视频中,我了解到,深度学习是人工智能的一种很重要的方法的方法。随着视频的深入,了解到了深度学习的一些模型,以及监督学习、强化学习的方法。 通过第二个视频,我具体了解到深度学习的不能:算法输出不稳定,容易受到攻击;模型复杂度高,难以纠错和调试;模型层级复合程度高,参数不透明;端到端训练方式对数据依赖性强,模型增量性差;专注直观感知类问题,对开放性推理问题无能为力;机器偏见难以避免等。并对此介绍了解释性与泛化性、连接主义与符号主义,使我明白了机器学习也不是完美无缺的,存在着一定的弊端,如何解决这些弊端便成为了当下的问题。第二节是神经网络基础,初步了解到,神经网络的每一层,通过一定变换将初始输入映射到特定空间,从而实现对数据的分类与回归。但随之有个不可避免的问题,即梯度消失的问题。 |
苏璟涵 | 人工智能经历了三个高速发展阶段,并且在每一个发展阶段中都会有警惕人工智能的言论出现。目前我国在研究人工智能的其不间断并不落后于外国。 人工智能的输出结果很容易被干扰,并且跟训练样本有很大的关系。如果训练样本出错或者侧重点不同,很容易出现种族歧视等问题。 |
姓名 | 问题 |
---|---|
唐晓培 | 1.为什么三层神经网络是主流,更深层次的神经网络相对于三层神经网络有什么不足? 2.受限玻尔兹曼机的建模不明白。 |
黄月凌 | 误差反向传播,受限玻尔兹曼机 |
黄浩 | 玻尔兹曼机 |
李雨晴 | 单层与多层感知器、反向传播、梯度消失、受限玻尔兹曼机。 |
苏璟涵 | 1.深度学习中有自上而下,自下而上和两种共同使用的方法来实现。那么各个方法孰优孰劣?各种方法适用于哪些情况?能不能提出一种新的方法具备以上的所有特点? 2.距离强人工智能至少还需要多久的发展时间? 3.人工智能还能融入到人类日常生活中的哪些方面?//除了下棋 |
【第二部分】代码练习 |