电脑可以模拟人脑吗?
评阅教师 |
设计成绩 |
评阅日期 |
|
|
|
海南大学计算机科学与技术学院
计算机综合课程设计报告
班 级:计算机科学与技术专业1班
成 员:周志成(学号20191687310038)
指导老师: 杨厚群
完成日期: 2022年6月19日
目录
电脑可以模拟人脑吗?. 3
1以何种方法... 3
1.1 符号主义... 3
1.2 行为主义... 4
1.3 连接主义... 5
2 局部模拟... 6
2.1 计算机视觉... 6
2.2 自然语言处理... 7
3 走向通用的人工智能... 8
参考文献... 9
电脑可以模拟人脑吗?
1996年,深蓝对决国际象棋世界冠军Каспаров。深蓝2:4落败。第二年,深蓝卷土重来大获全胜。
2016年3月,AlphaGo在围棋大战中击败围棋世界冠军李世石。
2017年1月,Libratus击败四位人类高手,在德州扑克人机大战中成为“赌神”。同年5月,AlphaGo以3:0战胜人类顶尖棋手柯洁。
似乎,在与人类的博弈中,机器总能取得最终的胜利。很多人类能够做到的事情,从计算到记忆,电脑也能够完成。随着算力的提升,人工智能取得的巨大进步,电脑可以模拟人脑的呼声也越来越高。
那么电脑能够模拟人脑吗?是完全模拟还是部分模拟?
其实,这也是一直以来困扰许多科学家的问题,自1956年夏季,首次提出了“人工智能”这一术语以来,我们便一直在寻求创造智能的方法。其中自然也包括使用电脑模拟人脑。
1以何种方法
一般认为,人工智能可以分为三个派别:
1.1 符号主义
该学派认为:符号是人类认知和思维的基本单元,智能是符号的表征和运算过程,计算机同样也是一个物理符号系统。因此,符号主义主张(由人)将智能形式化为符号、知识、规则和算法,并用计算机实现符号、知识、规则和算法的表征和计算,从而实现用计算机来模拟人的智能行为。
在构建人工智能系统之前,需要设计出作为其形式系统的公理。因此,阿伦·纽厄尔和赫伯特·西蒙提出了他们的物理符号系统假设和有限理性原则,这后来成为符号主义的理论基础。1975年,阿伦·纽厄尔和赫伯特·西蒙因人工智能方面的基础贡献共同获得图灵奖。
符号主义学派创造了许多优秀的专家系统,开发了非常智能的象棋机,如深蓝便是符号主义人工智能的典型代表。
但是物理符号系统假设对于大脑来说并不完整,而只是人类智力的一个方面。人类的智能不能用一个形式化的公理系统来模拟。同时,许多现实世界中的问题无法或难以找到公式公理来描述,符号主义发展遭遇到瓶颈。
1.2 行为主义
行为主义源自一个心理学流派,该学派认为行为是有机体用以适应环境变化的各身体反应的组合, 它的理论目标在于预见和控制行为。20 世纪 80 年代, 以布鲁克斯为代表的一批研究人员将行为主义的观点引入到人工智能的研究中, 并逐步形成了有别于传统人工智能的新的理论学派——行为主义学派。
行为主义认为智能产生于主体与环境的交互中, 复杂的行为可分解为若干个简单行为。主体根据环境刺激产生相应的反应, 同时据反应来陈述引起该反应的刺激。以这种快速反馈替代传统人工智能中的数学模型, 从而适应复杂多变的客观环境。
行为主义智能系统的构造原理如图
行为主义典型的代表便是如今波士顿动力的机器狗,其可以与环境进行交互,并完成一系列复杂的动作,但相较于人,还是相差很远。
1.3 连接主义
1943年,美国神经生理学家沃伦.麦卡洛克和数学家沃尔特. 皮茨对生物神经元进行建模,首次提出了M-P模型(一种形式神经元模型),由此诞生了人工智能的另一学派——连接主义学。
人类的神经细胞自然由基因编码确定,至于人类掌握的技能当然由后期的学习完成。但人工神经元又怎么取学习呢?在M-P模型首次提出的时候,神经元的参数都是预先设置的。
1958年,计算机科学家罗森布拉特提出了两层神经元构建的网络,命名为感知机。尽管感知机最终被证明是一个线性模型,连基本的异或问题都解决不了,但其主要构件与思想,如自动学习权重、梯度下降、优化器、损失函数等。为人工神经网络的发展奠定了基础,现代人工神经网络仍然保留了当时的很多特征。
至此,人工神经网络实际上受人脑启发设计,但后续的衍生的特征却一定程度上摆脱了对人脑的参考。
1986年,杰弗里·辛顿提出了适用于多层感知机的回传误差(back propagation)算法,并在层与层之间的传播过程中引入了 Sigmoid激活函数,为神经网络引入了非线性,改良了单层感知机无法解决异或问题的缺陷。
完善后的神经网络不仅可以根据输入值输出一个合理的结果,并且当结果有误差时还可根据误差反向传播,修改神经网络中神经元的参数。这便是人工神经网络“学习”的过程。
如今,人工神经网络在实际运用中大放异彩。今天,当我们谈到人工智能,许多人也许会下意识到想到人工神经网络或者深度学习。
行为主义的代表之一的强化学习也结合深度学习发展出了深度强化学习,我们耳熟能详的AlphaGO便结合了多种人工智能方法(主要是强化学习)。
连接主义受人脑神经元启发而诞生,至今取得的效果也重新将人们拉回到对电脑模拟人脑的想象中来。
2 局部模拟
显然,如今的人工智能已经可以局部模拟人脑,实现人脑的部分功能。如识别人脸和与人进行简单对话。
2.1 计算机视觉
20世纪50年代,人们才开始尝试赋予计算机这一的感知能力。而严格意义上的计算机视觉是在60年代才逐渐发展起来的。
起初人们试图提取物体特征并加以空间关系的描述来进行识别。此时的计算机视觉的发展也基本遵循。
20世纪80年代,符号主义在人工智能领域占据主导地位。人们试图建立计算机视觉的专家系统来存储公理和方法,然后与从物体中提取的特征进行规则匹配,或者利用统计学的方法找到物体的本质特征描述,而非由人工定义规则。
符号主义的方法诞生了许多惊艳的成果,如今许多的建模软件,图像搜索引擎仍然采取的是符号主义的方法,即事先提取物体特征再加以还原或者识别匹配.
连接主义的兴起也给如何赋予计算机视觉提供了新的思路。人们开始使用人工神经网络对图像进行处理。
1989年,Yann LeCun发明卷积神经网络。卷积神经网络在图像识别、分割、检测等方面表现出相当的最佳性能。业界也掀起了卷积神经网络研究的狂潮,谷歌、微软和Facebook 等公司都设立了研究团队来探索卷积神经网络的新架构。
我们平时所使用的人脸识别入口也是基于卷积神经网络的实现的。
如今,强化学习、深度学习等多种方法结合的计算机视觉正用于我们生活的方方面面,从人脸识别到CT影像辅助诊断,从智慧家庭到自动驾驶。
2.2 自然语言处理
自然语言处理的发展同样曲折。其思想诞生于20世纪40年代晚期,当时构建的第一个的人工智能系统,处理自然语言并为识别单词来处理人类命令。 1950 年,艾伦·图灵提出了第一个机器翻译算法。算法侧重于编程语言的形态学、句法和语义,但实现的效果并不好。
1958 年,John McCarthy发明了SOLO 自然语言句子处理程序。1967 年,苏联科学家发明了一个俄语机器翻译程序,实现英语到俄语的互相转换。直到1979 年第一个简单的英语“聊天机器人”才诞生。
这期间诞生的聊天机器人和翻译程序都未能满足人们的需要,聊天机器人只能进行最简单的对话,翻译程序不如人类翻译。
2006 年,谷歌推出了基于机器学习的翻译程序,可以将 60 多种语言的单词翻译成其他语言。
2013年,微软推出了聊天机器人Tay。它从 Twitter 和其他平台上与人类的互动中学习,人们可以在线参与。但没过多久,Tay就开始发布支持希特勒等言论,在其存在的16 小时后被关闭。
如今,自然语言处理便利了人们的阅读和沟通。如 Siri 或 Alexa这样的语音助手已经可以在一定程度上处理人类的语言。但目前的自然语言处理仍无法通过图灵测试,人们在于机器对话中,依旧可以很明显地感觉到对方是一个机器人。同时,翻译程序的效果也无法完全替代人类。
3 走向通用的人工智能
人工智能自70年前诞生以来取得了巨大的进步。我们模拟了大脑的部分结构,并且模拟了大脑的部分功能。自动驾驶汽车、在复杂游戏中击败专家的程序,以及能够帮助需要照顾的人的智能机器人,都是机器智能的成功例子。
这种进步可能会促使我们设想一个由能够在不久的将来完成与人类相同任务的自主机器人组成的社会。这一前景似乎只受到当前计算设备的能力和复杂性的限制,而当前的计算设备正在快速改进。
一部分研究者认为人工智能和生物体在利用新启示的能力上有所不同。只有生物体才能做到这一点。这意味着,在当前人工智能研究的算法框架中,真正的AGI是不可能实现的。
也有一部分声音认为,人工智能的进化之路不一定要完全参考人脑。如同我们受飞鸟启发创造出了飞机,但是如今升空的飞机已经有许多不同于鸟类的地方。他们认为,一系列任务的综合,即跨模态的方法多模型的混合将通向通用人工智能。
也有很多人认为没必要创造可以媲美人脑的人工智能。试想,当人工智能拥有意识和智慧后,它还会愿意服务于人类吗。许多影视文学作品也对通用人工智能展开了天马行空的想象。
不管通用人工智能是否将对人类构成威胁。至少目前,它的实现方法还尚不明确。电脑完全模拟人脑还有很长的路要走。
参考文献
[1] Zhang Wei, Chunyu Wu and Lei Chen, "Symbolism and connectionism of artificial intelligence," IEEE APCCAS 2000. 2000 IEEE Asia-Pacific Conference on Circuits and Systems. Electronic Communication Systems. (Cat. No.00EX394), 2000, pp. 364-366, doi: 10.1109/APCCAS.2000.913510.
[4] Brooks R A. Intelligence without reason [A]. IJCAI291[C]. San Francisco: Morgan Kaufmann, 1991. 5692595.
[5] Brooks R A. Intelligence without representation [J]. Artificial Intelligence, 1991, 47 (1ö3): 1392159.
[6] McCulloch, W.S., Pitts, W. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics 5, 115–133 (1943). https://doi.org/10.1007/BF02478259
[7] Silver, D., Huang, A., Maddison, C. et al. Mastering the game of Go with deep neural networks and tree search. Nature 529, 484–489 (2016). https://doi.org/10.1038/nature16961
[8] Rumelhart, David E., Geoffrey E. Hinton, and Ronald J. Williams. Learning internal representations by error propagation. California Univ San Diego La Jolla Inst for Cognitive Science, 1985.
[9] LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278-2324.
[10] Roli, A., Jaeger, J., & Kauffman, S. A. (2022). How organisms come to know the world: fundamental limits on artificial general intelligence. Frontiers in Ecology and Evolution, 1035.