读AI3.0笔记09_常识

1.       人类天生具备的核心知识

1.1.         是我们与生俱来的或很早就学习到的最为基本的常识

1.1.1.           即便是小婴儿也知道,世界被分为不同的“物体”,而且一个物体的各个组成部分会一起移动

1.1.2.           同时,即便某一物体的某些部分在视野中看不见了,它们仍然是该物体的一部分

1.2.         直觉

1.2.1.           由于我们人类是一种典型的社会型物种,从婴儿时期开始我们逐步发展出了直觉心理

1.2.1.1.            感知并预测他人的感受、信念和目标的能力

1.2.2.           直觉知识的这些核心主体构成了人类认知发展的基石,支撑着人类学习和思考的方方面面

1.3.         模拟

1.4.         隐喻

1.4.1.           通过核心物理知识来理解抽象概念

1.5.         抽象与类比

1.5.1.           抽象是将特定的概念和情境识别为更一般的类别的能力

1.5.2.           类比在很多时候是我们无意识的行为,这种能力是我们抽象能力和概念形成的基础

1.6.         反思

1.6.1.           人类智能的一个必不可少的方面,是感知并反思自己的思维能力

1.6.2.           这也是人工智能领域近来很少讨论的一

1.6.3.           在心理学中,这被称作“元认知”

2.       意义的障碍

2.1.         barrier of meaning

2.2.         人类能够以某种深刻且本质的方式来理解他们面对的情境,然而,目前还没有任何一个人工智能系统具备这样的理解力

2.3.         当前最先进的人工智能系统在完成某些特定的细分领域的任务上拥有比肩人类的能力,甚至在某些情况下的表现已经超越人类

2.3.1.           这些系统都缺乏理解人类在感知、语言和推理上赋予的丰富意义的能力

2.4.         孩提时代,我们人类学习了大量关于世界上的物体如何运转的知识,在我们成年后,就完全将其视为理所当然,甚至意识不到自己具备这些知识

2.5.         婴儿会发展出自己对世界上的因果关系的洞察力

2.6.         心理学家为此创造了术语“直觉物理学”(intuitive physics)来描述人类对物体及其运转规则所具有的基本知识

2.7.         直觉生物学

2.7.1.           intuitive biology

2.8.         人类是一种典型的社会型物种,从婴儿时期开始我们逐步发展出了直觉心理:感知并预测他人的感受、信念和目标的能力

3.       预测可能的未来

3.1.         理解力是一种预测力,而预测力与我们的经历息息相关

3.2.         理解任何情况,其本质是一种能够预测接下来可能会发生什么的能力

3.3.         神经科学家还不清楚这种心智模型或运行在其之上的心智模拟,是如何从数十亿相互连接的神经元的活动中产生的

3.4.         一个人对概念和情境的理解正是通过这些心智模拟来激活自己之前的亲身经历,并想象可能需要采取的行动。

4.       理解即模拟

4.1.         心理学家劳伦斯·巴斯劳(Lawrence Barsalou)是“理解即模拟”(understanding

as simulation)假说最为知名的支持者之一

4.2.         当人们理解一段文本时,他们构建模拟来表征其感知、运动和情感等内容。模拟似乎是意义表达的核心

4.2.1.           巴斯劳

4.3.         即便是最为抽象的概念,我们也是通过对这些概念所发生的具体场景进行心智模拟来理解的

4.4.         对感觉-运动(sensory-motor)状态的重演(即模拟)来进行概念处理

4.4.1.           这一假说最具说服力的证据来自对隐喻的认知研究

5.       隐喻

5.1.         隐喻是一种以并不完全真实的方式来描述一个物体或动作,但有助于解释一个想法或做出一个比较的修辞手法

5.2.         隐喻经常应用在诗歌等文学体裁上,以及人们想要为其语言增添一些文采的时候

5.3.         不管一个人感受到的是身体上的温暖还是社交上的“温暖”,激活的似乎都是大脑的相同区域

5.4.         抛开意识来谈理解是困难的

5.5.         循环因果关系类似于侯世达所说的意识的“怪圈”

5.5.1.           符号和物理层面相互作用,并颠倒了因果关系,符号似乎拥有了自由意志,并获得了推动粒子运动的自相矛盾的能力

6.       抽象与类比

6.1.         自20世纪50年代以来,人工智能领域的研究探索了很多让人类思想的关键方面,如核心直觉知识、抽象与做类比等,融入机器智能的方法,以使得人工智能系统能够真正理解它们所遇到的情境

6.2.         我们拥有的核心知识,有些是与生俱来的,有些是在成长过程中学到的

6.3.         侯世达几十年来一直研究抽象和做类比,在一种非常一般的意义上将做类比定义为:对两件事之间共同本质的感知

6.4.         抽象与“做类比”(analogy making)密切相关

6.5.         没有概念就没有思想,没有类比就没有概念

6.5.1.           心理学家伊曼纽尔·桑德尔(Emmanuel Sander)在《表象与本质》中

7.       让计算机具备核心直觉知识

7.1.         通过“内在建构”的方法来捕获足够的人类常识以在机器中实现人类水平的智能,看起来是完全合理的

7.2.         坚持为机器人工编写常识的最著名和持续时间最久的是道格拉斯·雷纳特(Douglas Lenat)的“Cyc”项目

7.2.1.           要想令人工智能实现真正进步,就需要让机器具备常识

7.2.2.           他决定创建一个庞大的关于世界的事实和逻辑规则的集合,并且使程序能够使用这些逻辑规则来推断出它们所需要的事实

7.2.3.           1984年,雷纳特放弃了他的学术职位,创办了一家名为“Cycorp”的公司来实现这一目标

7.3.         雷纳特的目标是让Cyc涵盖人类拥有的所有不成文的知识,或者至少涵盖足以使人工智能系统在视觉、语言、规划、推理和其他领域中达到人类水平的知识

7.4.         在Cyc中,专家是指人工将他们关于世界的知识转化为逻辑语句的人

7.5.         Cyc的知识库比MYCIN的要大得多,Cyc的逻辑推理算法也更复杂

7.5.1.           项目有相同的核心理念:智能可通过在一个足够广泛的显性知识集合上运行人类编码的规则来获取

7.6.         在当今由深度学习主导的人工智能领域内,Cyc是仅存的大规模符号人工智能的成果之一

7.6.1.           Cyc无法通过其大量事实组成的集合和一般逻辑推理来获得与人类拥有的抽象和类比能力相类似的技能

7.7.         很多处于我们潜意识里的知识,我们甚至不知道自己拥有这些知识,或者说常识,但是它们是我们人类所共有的,而且是在任何地方都没有记载的知识

7.7.1.           包括我们在物理学、生物学和心理学上的许多核心直觉知识,这些知识是所有我们关于世界的更广泛的知识的基础

7.7.2.           如果你没有有意识地认识到自己知道什么,你就不能成为向一台计算机明确地提供这些知识的专家

7.8.         我们的常识是由抽象和类比支配的,如果没有这些能力,我们所谓的常识就不可能存在

7.9.         当深度学习开始展示其一系列非凡的成功时,不管是人工智能领域的内行还是外行,大家都乐观地认为我们即将实现通用的、人类水平的人工智能了

7.9.1.           即便是最成功的系统,也无法在其狭窄的专业领域之外进行良好的泛化、形成抽象概念或者学会因果关系

7.9.2.           它们经常会犯一些不像人类会犯的错误

7.9.3.           在对抗样本上表现出的脆弱性

7.9.4.           它们并不真正理解我们教给它们的概念

7.10.     关于是否可以用更多的数据或更深的网络来弥补这些差距,还是说有某些更基本的东西被遗失了,人们尚未达成一致意见

8.       邦加德问题

8.1.         Bongard problems

8.2.         由俄罗斯计算机科学家米哈伊尔·邦加德(Mikhail

Bongard)设置的

8.3.         在1967年出版了一本名为《模式识别》(Pattern

Recognition)的俄文书

8.4.         邦加德精心设计了谜题,使得它们的解决方案要求人工智能系统具备与人类在现实世界中所需的同样的抽象和类比能力

8.5.         邦加德问题也挑战了人类迅速感知新概念的能力

8.6.         训练过的ConvNets在这些“相同vs不同”任务上的表现仅略好于随机猜测

8.6.1.           由研究人员测试的人类的准确率接近100%

9.       做类比

9.1.         人工智能研究中通常使用所谓的“微观世界”(就是一种理想化的情境,比如邦加德问题),研究人员能够在其中先开发一些想法,再在更复杂的领域中进行测试

9.2.         概念滑移(conceptual slippage)这一概念是做类比的核心

9.3.         Copycat是用来测试与类比相关的一般观念的平台,而非一个全面的“字符串类比制造机”

9.4.         Situate目前仍处于研发的早期阶段,其目的是探究隐藏在人类类比能力背后的一般机制,并证明隐藏在Copycat程序背后的机制也可以在字符串类比这个微观世界之外成功地运行

9.5.         Copycat、Metacat和Situate仅仅是基于侯世达的活跃符号结构构建的类比程序中的3个示例

10.  元认知

10.1.     人类智能的一个必不可少的方面,是感知并反思自己的思维能力,这也是人工智能领域近来很少讨论的一点,在心理学中,这被称作“元认知”

10.2.     识别整个情境比识别单个物体要困难得多

10.3.     “视觉情境”(visual situations)的人工智能系统

11.  真的相距甚远

11.1.     现代人工智能以深度学习为主导,以DNN、大数据和超高速计算机为三驾马车,然而,在追求稳健和通用的智能的过程中,深度学习可能会碰壁重中之重的“意义的障碍”

11.2.     你在推理人们的心智状态,以及他们对其他人的心智状态的看法。这会变得越来越可怕……令人难以置信的是:上面所有的推论都是从人们对这幅二维的由像素构成的图像的简单一瞥而展开的

11.2.1.      卡帕西

11.2.1.1.        卡帕西是一名深度学习和计算机视觉领域的专家,他目前在指导特斯拉的人工智能的相关工作

11.3.     人类理解能力的复杂性,并以水晶般的清晰度展现了人工智能所面临的挑战之大

12.  6个关键问题

12.1.     自动驾驶汽车还要多久才能普及?

12.1.1.      对于一辆4级自动驾驶汽车而言,尽管你能想象到许多有可能会对其造成挑战的情境:恶劣的天气、城市交通拥堵、在建筑区域内导航穿行,或是在没有任何车道标志的、狭窄的双向道路上行驶

12.1.2.      已经发生了好几起自动驾驶汽车引发的致命事故,其中也包括一些试验用车,这些事故都发生在本应由人类驾驶员接管车辆,但却没被及时注意到的场景

12.1.3.      自动驾驶汽车行业迫切希望生产和销售完全自动驾驶汽车,也就是5级自动驾驶汽车

12.1.4.      事实上,完全自动驾驶是我们消费者一直期盼的,也是自动驾驶汽车的相关各方所努力的方向

12.1.5.      自动驾驶汽车还可能面临的一个问题就是我们所谓的人性

12.1.5.1.        人们难免会想对完全自动驾驶汽车搞一些恶作剧,以探索它们的弱点

12.1.6.      自动驾驶汽车面临的另一个迫在眉睫的问题就是:各种潜在的恶意攻击

12.1.6.1.        由于未来的自动驾驶汽车将完全受软件控制,它们更可能受到黑客的恶意攻击

12.1.6.2.        为自动驾驶汽车开发合适的计算机安全防御系统将与开发自动驾驶技术同样重要

12.1.7.      实现足够可靠的、在几乎所有情境下都能自主行驶的完全自动驾驶汽车的技术还不存在

12.1.7.1.        我们也很难预测什么时候这些问题才能被解决,专家们的预测从几年到几十年不等

12.1.8.      要实现完全自动驾驶,本质上需要通用人工智能,而这几乎不可能很快实现

12.2.     人工智能会导致人类大规模失业吗?

12.2.1.      不会,至少近期不会

12.2.2.      马文·明斯基的“容易的事情做起来难”这句格言仍然适用于人工智能的大部分领域,并且许多人类的工作对于计算机或机器人而言可能比我们想象的要困难得多

12.3.     计算机能够具有创造性吗?

12.3.1.      机器的本质,归根结底是“机械性”

12.3.2.      Copycat程序经常会想出我从未想到过的类比方法,并且有它自己的奇怪逻辑

12.3.3.      原则上讲,计算机是有可能具有创造性的

12.3.4.      具备创造性需要能够理解并判断自己创造了什么

12.3.4.1.        那么,现在没有一台计算机可被看作是具有创造性的

12.3.5.      计算机对抽象艺术并没有任何理解力,因此它本身并不具有创造性

12.3.5.1.        艺术可以说最能区别人类与其他生物之间的不同,这是我们人类引以为傲的事情

12.3.6.      EMI是一种加强版的音乐骰子游戏

12.4.     我们距离创建通用的人类水平AI还有多远?

12.4.1.      如果计算机达到通用的、人类的水平,这些机器将很快变成超级智能的,整个过程类似于古德对“智能爆炸”的预言

12.4.2.      人类思维和学习的迟缓性、非理性、认知偏见、对无聊事务的低忍耐性、对睡眠的需求以及各种情绪,所有这些都妨碍了创造性思维的产生

12.4.2.1.        一台超级智能机器将具有一些接近“纯粹智能”的东西,不受任何人类弱点的限制

12.4.2.2.        这些所谓的人类局限性,正是构成我们人类的通用智能的一部分

12.4.2.3.        在现实世界中劳作的躯体、我们进化出的能够让人类作为一个社会组织来运行的情绪和非理性偏见,还有所有其他偶尔被认为是认知缺陷的品质给我们带来的束缚,实际上正是让我们成为一般意义上的聪明人而不是狭隘的博学之士的关键

12.5.     我们应该对人工智能感到多恐惧?

12.5.1.      存在以下风险:造成大量人失业的可能性、人工智能系统被滥用的潜在风险,以及这些系统在面对攻击时的不可靠性和脆弱性

12.5.2.      侯世达担心的是:人类的认知能力和创造力变得如此轻易就能被人工智能程序习得,从而使得他最为珍视的基于人类思想的崇高创作,如肖邦的音乐,可被像是EMI那样的人工智能程序使用的那套肤浅的算法替代

12.5.2.1.        令他感到恐惧的是完全不同的事情

12.5.2.2.        如果这种无限微妙、复杂且情感深厚的思想会被一块小小的芯片所简化,这会摧毁我对人性的理解

12.5.2.2.1.         侯世达

12.5.3.      目前的人工智能与通用智能还相距甚远,并且不认为超级智能已经近在眼前了

12.5.4.      如果通用人工智能真的会实现,它的复杂性能够与我们人类的大脑相媲美

12.5.5.      当系统输入与其训练样本相差太大时,它们就会出错

12.5.5.1.        通常我们很难预测人工智能系统在什么情况下会变脆弱

12.5.5.2.        语音转录、语言翻译、图像描述、自动驾驶等,这些对稳健性要求很高的场景,仍然需要人类的参与

12.5.6.      我们人类倾向于高估人工智能的发展速度,而低估人类自身智能的复杂性

12.5.7.      我们倾向于拟人化人工智能系统,我们把人类的品质灌输给这些系统,却又高估了这些系统可以被完全信任的程度

12.5.8.      我们应该感到害怕,不是害怕机器太智能,而是害怕机器做出一些它们没有能力做出的决策

12.5.8.1.        相比于机器的“智能”,我更害怕机器的“愚笨”

12.5.8.2.        机器的愚笨会创造一个尾部风险

12.5.8.3.        机器可以做出很多好的决策,然后某天却会因为在其训练数据中没有出现过的一个尾部事件而迅速失灵,这就是特定智能和通用智能的区别

12.5.9.      人们担心计算机会变得过于聪明并接管世界,但真正的问题是计算机太愚蠢了,并且它们已经接管了世界。

12.5.9.1.        人工智能研究人员佩德罗·多明戈斯

12.5.10.  ⑩使用人工智能系统生成伪造的媒体内容,比如,使用文字、声音、图像和视频等来描绘可怕的、实际上从未真正发生过的事件

12.5.11.  ⑾在对算法和数据的不道德使用及其危险的潜在用途方面,仍然存在很多令人担心的问题

12.6.     人工智能中有哪些激动人心的问题还尚未解决?

12.6.1.      几乎所有问题

12.6.1.1.        该领域几乎所有的重要问题都是开放的,并且总在等待新想法的涌入

12.6.2.      人工智能中最激动人心的问题不仅仅是在其潜在应用上

12.6.3.      该领域的创建者的动机不仅来自与智能的本质有关的科学问题的激励,还来自对开发新技术的渴望

12.6.4.      智能是一种自然现象,一种与其他许多现象一样,可以通过构建简化的计算机模型来加以研究的这种想法,是吸引许多人进入该领域的动机

posted @ 2024-01-30 06:40  躺柒  阅读(28)  评论(0编辑  收藏  举报