米兰理工人工智能概述笔记-全-
米兰理工人工智能概述笔记(全)
001:什么是人工智能 🤖

在本节课中,我们将要学习人工智能的基本概念,了解其定义、核心思想以及发展历程的简要脉络。我们将探讨如何衡量智能,并介绍人工智能领域随时间演变的几个关键阶段。

人工智能,简称AI,是当今最引人入胜的技术之一。普遍认为,它至少到2050年都将占据主导地位。近期一些重大的AI成就包括:能够预测蛋白质物理性质的AlphaFold、已安全行驶数百万公里的谷歌自动驾驶汽车、能生成与人类所写文章难以区分的新闻稿的GPT-3软件,以及在国际无限注德州扑克巡回赛中击败顶尖玩家的Pluribus。
尽管如今几乎人人都在谈论AI,但要回答“什么是AI”这个问题并不简单。在后续课程中,我们将深入分析AI定义如何随时间演变。本节的目标是简要勾勒AI的概念,并介绍后续将讨论的主题结构。
直观上,AI是机器所展示的、由人类赋予的智能,不同于人类和动物所表现出的自然智能。由于对“智能”本身没有明确的定义,通常的做法是根据实体所表现出的行为来区分其是否具有智能。
这种方法需要定义一些性能指标,我们通常的目标是最大化或最小化这些指标。这些指标需要被形式化定义,因此需要借助数学和逻辑等正式的科学工具。
以下是几个例子:
- 旅行:从一座城市到另一座城市,指标是花费的时间,目标是最小化。
- 下棋:玩跳棋或国际象棋,指标是获胜概率,目标是最大化。
- 识别:识别字符或图像,指标是错误概率,目标是最小化。
有趣的是,今天被认为是AI的东西,明天可能就不再是了。以光学字符识别任务为例,由于它已成为一项常规技术,如今已不被视为AI工具。这种现象被称为“AI效应”。其核心思想是,随着机器能力不断增强,那些曾被认为需要智能的任务常常会从AI的定义中被移除。
根据曾在施乐帕克研究中心、雅虎、亚马逊工作的计算机科学家拉里·特斯勒提出的定义:AI就是那些尚未完成的事情。

为了更好地理解AI如何随时间演变,区分四个主要时期是有益的,我们将在后续课程中详细分析。

以下是这四个时期:
- AI诞生之前(1956年以前):以AI先驱为特征。
- AI的诞生(1956年)。
- 从AI诞生后到上世纪结束:得益于早期的成功与失败,为AI领域在本世纪的爆发铺平了道路。
- 从本世纪初至今。

本节课中,我们一起学习了人工智能的基本定义,即机器展示的、由人类赋予的智能。我们了解到,智能通常通过可量化的性能指标(如时间、概率、错误率)来衡量。我们还引入了“AI效应”的概念,并简要回顾了AI发展的四个关键历史阶段,为后续深入学习奠定了基础。
002:人工智能诞生前的先驱

在本节课中,我们将学习人工智能诞生前,科学家们为模拟人类智能所做出的关键努力。我们将从早期的机械计算装置开始,一直探索到奠定现代计算机科学和神经网络基础的里程碑式思想。

制造一台能够复制人类智能等能力的机器,这个问题已经吸引了许多科学家数个世纪。

早期的努力主要集中在计算能力上。以下是17世纪至20世纪初期的一些关键先驱:
- 1623年:威廉·西卡德发明了计算器的前身,能够进行最多六位数的数学计算,尽管并非完全自动。
- 1642年:布莱兹·帕斯卡发明了机械计算器,能够直接进行加减法,并通过重复加减来实现乘除法。
- 1674年:戈特弗里德·威廉·莱布尼茨发明了机械机器,能够利用递归进行加法、减法和乘法。
上一节我们回顾了17世纪的机械计算雏形。进入19世纪,计算思想有了更重大的发展。
查尔斯·巴贝奇提出了差分机的模型。这是一台能够使用有限差分法求解多项式的机器。这个模型后来由乔治和爱德华·舍茨制成了可工作的机器。
几年后,查尔斯·巴贝奇提出了一个通用计算机器的模型,它能够执行差分机之外的各种计算。这个新模型被称为分析机。
20世纪中叶电子计算器的发展为新的思想铺平了道路。其中,阿兰·图灵提出了计算理论。
该理论认为,一台仅通过处理0和1等简单符号的机器,可以模拟任何可想象的数学推导过程。这个被称为图灵机的模型,是当今采用的主要计算模型之一。
具体来说,阿隆佐·邱奇和阿兰·图灵证明了数字计算机可以模拟任何过程和形式推理。这是通过证明图灵机是所能设计出的最通用的计算机器来实现的。
这一成果,连同神经生物学、信息论和控制论的最新发现,促使研究者们开始考虑建造一个“电子大脑”的可能性。
在探索“电子大脑”可能性的过程中,第一个重要成果是人工神经元,即线性阈值单元。
它由沃伦·麦卡洛克和沃尔特·皮茨在1943年提出。该模型明确地旨在作为大脑中神经网络的计算模型。

研究者们注意到,任何布尔函数都可以由神经网络实现。这一点很容易理解,因为人们可以实现与函数和或函数,并在析取范式或合取范式中使用它们。
研究者们也很快意识到,通过神经元具有反馈的神经网络可以定义具有记忆的动态系统。
这些成果在科学界引发了大量关于“智能是什么”以及“一个实体何时可被视为智能”的讨论。
这些由早期先驱们提出的问题,将在阿兰·图灵等人的工作中占据核心地位,并直接引领人工智能领域的正式诞生。

本节课中我们一起学习了人工智能诞生前的关键先驱思想。我们从17世纪的机械计算器开始,看到了19世纪巴贝奇的分析机如何构想通用计算。接着,我们了解了20世纪图灵机理论如何为现代计算奠定基石,以及麦卡洛克和皮茨的线性阈值单元如何首次尝试用计算模型模拟大脑神经元。这些探索共同提出了关于机器与智能的根本问题,为人工智能学科的正式出现做好了准备。
人工智能:概述 专项课程:P03:人工智能诞生前的图灵测试 🧠

在本节课中,我们将学习艾伦·图灵在1950年提出的一个著名思想实验——图灵测试。这个测试旨在探讨“机器能否思考”这一核心问题,并为此提供了一个可操作的评估框架。
1950年,艾伦·图灵在其论文《计算机器与智能》中,提出了一个如今广为人知的测试,即图灵测试。
图灵当时关注的问题是:机器能思考吗? 然而,由于“思考”本身难以明确定义,图灵建议用另一个问题来替代。这个问题与原问题紧密相关,并且能用相对清晰的措辞来表达。

艾伦·图灵以一种名为“模仿游戏”的三人游戏形式,重新表述了这个问题。

模仿游戏是一个三人游戏。其中,玩家A是一位男性,玩家B是一位女性,而扮演询问者角色的玩家C性别不限。
在模仿游戏中,玩家C既看不到玩家A,也看不到玩家B,只能通过书面笔记与他们交流。通过向玩家A和玩家B提出各种问题,玩家C试图判断两者中哪一位是男性,哪一位是女性。
玩家A的角色是欺骗询问者,使其做出错误判断。而玩家B则试图帮助询问者做出正确判断。
在定义了模仿游戏之后,图灵提出的问题是:如果让一台机器来扮演游戏中的A角色,会发生什么? 询问者是否会像在男性和女性之间进行游戏时那样,经常做出错误的判断?
于是,最初的问题“机器能思考吗?”应该被替换为:“是否存在可以想象的数字计算机,能在模仿游戏中表现出色?”
多年来,人们提出了许多图灵测试的不同变体。
一个有趣的变体是角色目标在机器与人类之间发生反转。这个变体被称为反向图灵测试。其挑战在于,计算机需要能够判断它是在与人类交互,还是在与另一台计算机交互。这正是验证码(CAPTCHA)机制的核心原理。🎼

总结

本节课我们一起学习了图灵测试的起源与核心思想。图灵通过“模仿游戏”将抽象的“机器思考”问题,转化为一个具体的、可操作的测试。我们还了解了其基本规则、参与者的目标,以及一个重要的现代变体——反向图灵测试。这为我们理解如何评估机器智能奠定了基础。
人工智能:概述 专项课程:P04:人工智能的诞生 🧠

在本节课中,我们将回顾人工智能作为一个正式学科的诞生时刻,了解其起源的关键事件与早期成就。
1956年,在美国新罕布什尔州的达特茅斯学院,马文·明斯基、约翰·麦卡锡以及其他两位资深科学家克劳德·香农和内森·罗切斯特,共同组织了“达特茅斯夏季人工智能研究项目”。
该项目持续了大约六到八周,本质上是一场扩展的头脑风暴会议。约有十位数学家与科学家参加。与会者包括雷·所罗门诺夫、奥利弗·塞尔弗里奇、特伦查德·摩尔、阿瑟·塞缪尔、艾伦·纽厄尔和赫伯特·西蒙。
这次研讨会被广泛认为是人工智能作为一个领域的奠基事件。
上一节我们介绍了达特茅斯会议的背景,本节中我们来看看会议提案中的核心主张与人工智能的命名。
会议的提案中包含这样一项断言:“学习的每个方面或智能的任何其他特征,原则上都可以被精确地描述,从而可以用机器来模拟它。” 术语“人工智能”由约翰·麦卡锡选定,旨在避免与控制论产生关联,后者是由诺伯特·维纳开创的一个颇具影响力的领域。
了解了人工智能的正式命名后,接下来我们看看该领域诞生初期的两项重要成就。
以下是人工智能早期的两项里程碑式成就:
- 逻辑理论家:第一项重大成就可能来自艾伦·纽厄尔和赫伯特·西蒙在1956年的工作。他们创建了一个名为“逻辑理论家”的程序。该程序证明了罗素和怀特海《数学原理》前52条定理中的38条,并且为其中一些定理找到了更新、更优雅的证明。
- 跳棋程序:第二项重大成就来自阿瑟·塞缪尔在1959年的工作。他开发了一个跳棋程序,其棋艺水平可与一个不错的业余棋手相媲美。
沿着这些研究方向,在随后的几年里涌现了大量人工智能的硬件和软件成果。

本节课中,我们一起学习了人工智能领域的诞生标志——达特茅斯会议,了解了其核心主张与命名由来,并回顾了早期“逻辑理论家”与跳棋程序等开创性成就,这些为后续人工智能的快速发展奠定了基础。
005:AI的诞生之后——寒冬与春天 🌱❄️

在本节课中,我们将要学习人工智能(AI)发展初期,从充满希望的诞生到遭遇挫折的“寒冬”,再到技术突破带来的“春天”的完整历程。我们将了解早期研究者的雄心壮志、导致期望落空的原因,以及AI如何通过专家系统等技术重获新生。
早期的雄心与过高期望
上一节我们介绍了AI的诞生。在AI诞生之初,整个科学界和工业界都为之兴奋。
第一代AI研究者做出了非常雄心勃勃的预测,这导致了极高的期望。以下是几个著名的例子:
- 1958年:Albert Simon和Helen Newell声称,在10年内,数字计算机将成为世界象棋冠军。并且,在10年内,数字计算机将发现并证明一个重要的新数学定理。
- 1965年:Albert Simon声称,机器将在20年内有能力完成人类能做的任何工作。
- 1967年:Marvin Minsky说,在一代人的时间内,创造人工智能的问题将基本得到解决。
- 1970年:Marvin Minsky再次表示,在3到8年内,我们将拥有一台具备普通人综合智能的机器。

遭遇挫折与第一次AI寒冬 ❄️
然而,早期的研究者未能充分理解他们所面临问题的难度,他们过度的乐观将期望推向了不切实际的高度。
因此,在1970年之后,当承诺的成果未能实现时,AI受到了严厉的批评。以下是导致AI首次失败的一些主要原因:
- 对问题本质的错误认知:大多数AI问题都受到组合爆炸的困扰。在研究小型实例时解决方案看似简单,但在面对现实世界规模的实例时,问题就变得难以处理。
- 有限的计算能力:当时的计算机硬件无法支撑复杂的AI运算。
- 数据量的匮乏:在计算机视觉和自然语言处理等特定领域,需要海量数据。在1970年,没有人能建立如此庞大的数据库,也没有人知道程序如何学习这么多信息。
资助AI研究的机构,如英国政府、DARPA(美国国防高级研究计划局)等,对缺乏进展感到沮丧,最终几乎停止了对非定向AI研究的所有资助。
到1974年,AI项目的资金已很难获得。这一时期通常被称为 “第一次AI寒冬”。
专家系统带来的春天 🌱
第一次寒冬在1980年后结束,这得益于专家系统的成功,一个新的“春天”开始了。
专家系统是一种简单的AI程序,由知识库和推理引擎组成,可以用于诸如医疗诊断等领域。其核心逻辑可以简化为一系列规则:
if condition_A and condition_B:
then conclusion_X
这个春天持续了大约10年,专家系统被全球许多公司成功采用。
第二次寒冬与再次崛起
然而,大约在1990年,新的寒冬——第二次AI寒冬——开始了,并持续了大约10年,直到2000年。
自那以后,AI开始通过互联网技术在工业界成功应用。部分成功归因于计算能力的不断提升,部分则是通过专注于特定的孤立问题,并以最高的科学标准去追求而实现的。
所有这些因素共同作用,使得AI领域分化成多个相互竞争的子领域,每个子领域都专注于特定问题或方法。
总结

本节课中,我们一起学习了AI发展初期的起伏历程。我们看到了早期研究者过高的期望如何导致了“第一次AI寒冬”,也了解了专家系统如何带来新的发展“春天”。随后,AI经历了“第二次寒冬”,最终凭借计算能力的提升和更务实的研究方法,在21世纪初再次崛起,并分化成多个专门领域。这段历史告诉我们,技术的发展往往伴随着期望的膨胀与现实的修正,而脚踏实地解决具体问题是推动进步的关键。
人工智能概述专项课程:P06:通用AI与狭义AI

在本节课中,我们将学习人工智能发展历程中的一个关键转折点:从追求通用人工智能转向专注于狭义人工智能。我们将了解两者的定义、区别,以及这一转变如何推动了AI的成功。

AI研究者的初始宏伟目标,通常被称为通用人工智能。
这是一种假想的计算机程序智能,它有能力理解或学习人类能够完成的任何智力任务。
目前,尚无已知的成功通用AI实例。
与通用AI相对,狭义AI是一个术语,用于描述被指定处理单一或有限任务的人工智能系统。
以下是狭义AI的一些常见例子:

- Siri:苹果公司的语音助手。
- Cortana:微软公司的语音助手。
- Google Assistant:谷歌公司的语音助手。

电视节目《危险边缘》的一位知名参赛者是IBM Watson。
它是技术上复杂的狭义AI的一个实例。与Siri类似,Watson确实整合了足够好的狭义AI功能,以覆盖一系列任务。
将研究重点从通用AI转向狭义AI,是AI在经历第一次寒冬后取得成功的关键。
事实上,在20世纪90年代和21世纪初,主流AI通过专注于特定的子领域,取得了更大的商业成功和学术认可,因为这些领域可以产生可验证的结果和商业应用。

总结

本节课中,我们一起学习了人工智能领域的两个核心概念:通用AI与狭义AI。通用AI是能够执行任何人类智力任务的理想化目标,而狭义AI则是专注于解决特定问题的现实应用。正是研究重点从前者向后者的转变,使得人工智能技术在特定领域取得了突破性进展和广泛的商业成功。
007:意大利人工智能的诞生 🧠

在本节课中,我们将跟随Luigia Carlucci Aiello教授的讲述,了解人工智能研究在意大利的起源与发展历程。我们将回顾早期研究者的背景、关键研究领域、学术组织的建立以及人工智能在意大利学术界和工业界的演变。
意大利人工智能的奠基人
Luigia Carlucci Aiello是意大利人工智能研究的奠基人之一。她在罗马大学担任计算机科学教授,并创立了人工智能研究小组。她在科学成就和为人工智能社区服务方面都做出了杰出贡献。
特别值得一提的是,Luigia是1988年意大利人工智能协会的创始人之一,并担任首任主席。她于1995年成为首位意大利AAAI会士,AAAI是全球最重要的人工智能学术组织。她于1999年成为首位意大利EurAI会士,EurAI是欧洲最重要的人工智能学术组织。
与人工智能的结缘
Luigia于1968年在比萨大学获得数学学位,论文主题是编程语言的语义学。她的导师是当时编程语言研究领域的先驱Alonzo Church。她由此开始对程序验证产生兴趣。
1969年,当Ugo Montanari从美国长期访问归来时,Luigia从他那里了解到了人工智能以及美国顶尖大学(如斯坦福大学、卡内基梅隆大学和麻省理工学院)的相关研究。她尤其被约翰·麦卡锡创立并领导的斯坦福人工智能实验室的研究所吸引。
1970年7月,她参加了在Dagstuhl举办的人工智能暑期学校,结识了麦卡锡和其他知名人工智能研究者。在那段时期,她决定前往斯坦福人工智能实验室,并于1973年凭借北约资助成行。
她通过Ugo Montanari和Marco Somalvico(后者也曾访问过该实验室)了解了斯坦福人工智能实验室,两人都对那里充满热情。当时,Somalvico在米兰理工大学活跃,而Montanari从米兰理工大学毕业后,与一群被研究机会和比萨大学新开设的计算机科学课程吸引的毕业生一起搬到了比萨。
早期的研究兴趣
Luigia的背景是数学和我们现在所说的理论计算机科学。她的兴趣在于提高程序正确性和机器验证这些证明。因此,她的研究领域是自动推理或定理证明。
她当时不敢称自己的研究属于人工智能,认为这个领域过于宏大,她只是解决其中的一个子问题。从程序推理开始,她转向了数学推理,并将数学视为构建智能体这一宏大目标下的一个子问题。她认为,如果一台机器不能推理简单的数学问题,我们如何能认为它是智能的?
随后,她的兴趣转向了知识表示与推理系统,不仅限于数学知识。直到那时,她才有了将自己称为人工智能研究者的勇气,同时也明白了仅靠数学推理不足以让机器展现出智能行为。
意大利早期的人工智能相关研究
在60年代的意大利,没有人将“人工智能”作为一个研究领域提及。需要记住的是,艾伦·图灵使用的是“机器智能”一词,这个名称在英国一直使用到70年代。
但考虑与人工智能相关的研究,意大利当时有几个重要的地点:
- 那不勒斯:Duilio Ago和Carlo在物理研究所建立了一个小组,在控制论和神经网络方面做出了杰出研究。
- 热那亚:Antonio Borsellino在物理研究所建立了一个生物物理学和控制论研究小组。
- 比萨:围绕建造意大利第一台计算机CEP,开展了大量研究。
当然,与人工智能相关主题的研究也在米兰(由哲学家Sergio Cotta进行)和罗马(由哲学家Vittorio Somenzi进行)展开。此外,不能忘记耶稣会士Roberto Busa,他从40年代末50年代初开始与IBM合作,启动了《托马斯·阿奎那著作索引》的创建,即对圣托马斯著作的数字化,从而开启了意大利的计算语言学和自然语言理解研究的深厚传统。
“人工智能”一词在意大利的兴起
据Luigia所知,意大利最早在70年代初使用“人工智能”一词的研究者是米兰理工大学的Marco Somalvico,以及她所属的比萨信息处理研究所小组。
比萨信息处理研究所的非数值信息处理部门(可以称之为符号处理)最初的研究方向是模式识别和图像处理。该部门包括Ugo Montanari, Giorgio Levi, Alberto Martelli, Carlo Montangero, Franco Sirovich, Maria Iori和Luigia本人。除她之外,其他人都是米兰理工大学毕业的电气工程师。
当Montanari从美国(他于1969年在华盛顿特区参加了第一届IJCAI会议)回到比萨后,他们提出了一个人工智能研究计划。在随后的几年里,他们都作为访问学者前往美国,建立了持续多年的研究联系。
当时的主要研究课题
意大利的研究者专注于理论问题并不奇怪,除了个人倾向,另一个事实是我们的实验室在硬件方面极其匮乏,难以开发和运行人工智能软件。

Luigia更了解在比萨进行的研究。那些年值得提及的成果包括:
- Martelli和Montanari提出的线性合一算法。
- Montanari在约束规划方面的开创性工作。
- Levi和Sirovich在与或图方面的工作。
此外,Montangero、Pacini和Tini开发了一种非常创新的编程语言,名为Micro-Magma(一种Lisp方言),并在国家研究委员会的计算语言学研究所长期用于计算语言学应用。
最后,Luigia提到了PPC,这是一个基于λ演算、用Lisp实现的定理证明器,采用了一种后来被称为面向对象的技术,由Maria Iori、Joseph Peraldi、Ja Racozzini和她本人开发。

人工智能在意大利的传播
人工智能在80年代开始在意大利传播。首先,在比萨活跃的研究者们成为了正教授,并前往多所意大利大学任职,在每所大学都建立了人工智能研究小组。

意大利大学与研究部启动了国家利益研究项目计划,旨在将多个小组的研究围绕一个共同主题集中起来。当时,Marco Somalvico和Luigia决定申请两个不同的项目:由他协调的机器人技术和由她协调的人工智能。两个项目都获得了资助,尽管资金非常少。
这些项目激励了研究协调,并促成了一个全国性社区的成形。在Luigia的项目中,她协调了第一轮申请中的12所大学单位,第二轮中的17所。

人工智能吸引了关注,这是非常积极的。他们每年举行会议,交流成果,增进了解。80年代有两个里程碑事件:1987年在米兰举办的IJCAI会议,以及意大利人工智能协会的成立。
他们的国家项目在意大利国内几乎未被察觉,相反,他们在国际人工智能社区中加强了良好声誉。这无疑影响了IJCAI董事会(全球最负盛名的人工智能会议)选择米兰和Somalvico来组织其1987年的会议。Marco在组织这一令人难忘的活动方面做了出色的工作,并通过许多举措来宣传会议,并促进学术界和工业界对人工智能和机器人技术的关注。
在国家项目(主要是IJCAI 87)取得成功之后,成立全国性协会的时机已经成熟,他们于1988年成立了意大利人工智能协会。通过该协会,他们将意大利与欧洲其他协会(当时称为ECCAI,现称为EurAI)联系起来。意大利人工智能协会至今仍非常活跃,出版国际期刊,并在意大利国内外推动研究。
随着新协会的成立,他们也感到时机成熟,可以向国家研究委员会提议一个大型的“最终项目”,这是一个旨在促进学术研究与工业合作的大型国家项目。他们热情地工作,为当时制定了一个非常好的项目,但时机对国家研究委员会和意大利学术界来说尚未成熟。他们的提议从未被正式拒绝,但在没有任何解释的情况下,被遗忘在某个抽屉里,从未获得批准。这是一个真正的遗憾。
幸运的是,欧盟正在启动第一轮ESPRIT项目,他们在布鲁塞尔获得了在意大利未曾获得的认可,从而度过了“寒冬”。
人工智能教学的开端
关于人工智能教学,第一批学术课程何时开始?在80年代末,意大利教育部正在批准设立信息工程和计算机科学学位。Marco Somalvico和Luigia通过各自的大学提议将人工智能课程纳入其中。这获得了批准:Somalvico于1990年在米兰理工大学,Luigia于1991年在罗马大学工程学院,开设了意大利首批人工智能课程。第一年,Luigia的课程有19名勇敢的学生参加,随后很快吸引了超过100名学生。
80年代和90年代的人工智能与意大利工业界
意大利工业界和公司研究实验室对人工智能的关注度一直很高。工业界的参与对意大利人工智能协会的成立起到了重要作用,尽管多年来这种参与度并不均衡。如今看来可能有些奇怪,但在当时,虽然国外(尤其是美国)涌现了许多初创公司,但在意大利,学术界的初创公司被视为对学术研究纯粹使命的背叛。创业型大学的时代尚未到来。
过去与现在人工智能的对比
Luigia认为,今天确实是人工智能的高潮期。在解决现实生活、社会相关的复杂问题方面取得的成果,吸引了大量关注并创造了许多期望。这些成果归功于人工智能研究的进步、特定模型和方法的发展,以及数字和通信技术的惊人进步。
与过去不同,当时的人工智能研究者或多或少被视为少数古怪偏执的怪人,现在每个人都声称在研究人工智能、使用人工智能或应用人工智能。总而言之,人工智能非常流行,甚至可能过于流行,超出了其实际成本。如果这种流行没有伴随着知识的增长,以及在对人工智能系统在工作、生活和环境中的使用和接受度方面的研究、开发和实验的投资,那可能是危险的。


本节课中,我们一起学习了人工智能在意大利的诞生与发展。我们回顾了奠基人Luigia Carlucci Aiello教授的学术历程,了解了早期研究者的背景与兴趣,看到了关键研究领域如自动推理、约束规划的兴起,以及意大利人工智能协会的成立如何凝聚了全国的研究力量。课程还对比了人工智能过去与现在的境遇,指出了当前热潮背后的机遇与挑战。这段历史展示了学术坚持、国际合作以及社区建设对于推动一个前沿领域发展的重要性。
人工智能概述专项课程:P08:人工智能的定义与目标

在本节课中,我们将深入探讨近年来人工智能的定义。许多不同的视角被提出,而斯图尔特·罗素和彼得·诺维格提供的分类法可以帮助我们总结其中的核心思想。
具体来说,他们识别了两个维度:第一个是“思考”与“行动”,第二个是“人类”与“理性”。这样我们就得到了四种情况:像人一样思考、理性地思考、像人一样行动以及理性地行动。

上一节我们介绍了定义人工智能的不同维度,本节中我们来看看具体的四种分类。
以下是这四种分类的详细说明:
- 像人一样思考:这一观点在贝尔曼1978年的定义中得到了很好的阐述。人工智能旨在自动化与人类思维相关的活动,例如决策、问题解决和学习。这个概念目前与认知科学和神经科学领域相关。然而,复制人类大脑的生理过程并非人工智能的目标。
- 理性地思考:正如查尼亚克和麦克德莫特在1985年提出的,这指的是通过使用计算模型来研究心智能力。这与计算逻辑领域密切相关,其目标是提供驱动推理的严格规则。然而,并非所有智能行为都通过逻辑思考来调节,因此理性思考无法完全涵盖整个领域。
- 像人一样行动:正如里奇和奈特在1991年提出的,这与研究如何让计算机做目前人类做得更好的事情有关。请注意,像人一样行动与图灵测试紧密相连,因此其目标是表现出尽可能接近人类的行为。同时请注意,“行动”在某种意义上包含了与“思考”不同的活动,我们关注的是观察行为本身,而无需理解这种行为是如何被选择的。然而,复制人类行为并不一定是人工智能的目标。
- 理性地行动:正如卢格尔和斯塔布菲尔德在1993年提出的,人工智能是计算机科学的一个分支,关注智能行为的自动化,其中智能通过某些形式化指标来衡量。
理性地行动与像人一样行动有所不同。例如,人类可能会犯错,而计算机程序在某些情况下(如井字棋、跳棋或魔方求解程序)可以做到不犯错。
目前最常见的人工智能定义基于理性智能体的概念,这源自“理性地行动”这一维度。
一个理性智能体是一个函数,它将感知映射到行动,以最大化给定的目标函数。理性智能体适用于特定的、狭窄的问题,如下棋、图像识别等。
通常,当一个实体总是采取最佳行动时,我们称之为完美理性。然而,理性地行动并不意味着智能体总是执行最佳行动,由于计算资源的限制,也可能无法做到。
因此,理性地行动与在可用资源下可实现的最佳行为相关联。人工智能的目标就是设计这样的理性智能体。


本节课中我们一起学习了人工智能定义的四种分类:像人一样思考、理性地思考、像人一样行动和理性地行动,并了解了当前最主流的定义是基于理性智能体的“理性地行动”这一维度。
009:问题与进展

在本节课中,我们将要学习如何根据智能体相对于人类的表现来评估其能力,并了解不同领域人工智能技术的发展现状与进展。

智能体性能的分类
上一节我们介绍了理性智能体的概念,其目标是最大化或最小化某个度量。当我们比较智能体与人类时,可以根据智能体相对于人类的表现,区分出以下五种情况。

以下是五种性能分类的定义:
- 最优:智能体的表现不可能更优。
- 超人类:智能体的表现优于所有人类。
- 高人类:智能体的表现优于大多数人类。
- 类人类:智能体的表现与大多数人类相似。
- 次人类:智能体的表现比大多数人类差。

问题与性能的对应关系
根据狭义人工智能的方法,智能体是为解决特定问题而开发的。我们可以做的是,针对每个特定问题,描绘出最佳人工智能技术的能力图景,并追踪这些技术随时间的进展。

现在,我们提供一些具体例子。几乎所有我们能以最优、超人类和高人类智能体解决的问题,都是结构良好且易于用数学工具描述的。

结构化问题中的高性能智能体
基于上述原因,我们拥有以下问题的最优人工智能智能体:井字棋(注意这个游戏人类也能达到最优)、Connect4、跳棋、魔方、限注德州扑克(注意扑克是一种结果取决于玩家所抽牌的随机性游戏)。

在这些游戏中,最优表现意味着如果游戏重复非常多次,没有方法能获得更高的价值。当表现虽非最优,但优于大多数人类时,我们则拥有超人类智能体。
例如以下案例:双陆棋、拼字游戏、雷神之锤、危险边缘、围棋、无限注德州扑克(六人局)、国际象棋(注意在1996年,最早的人工智能成就之一就是具有次人类能力的国际象棋程序)。在这些案例中,我们可以想象未来会出现比现有更强大的智能体,但人类在未来击败这些智能体的可能性很小。
然后,有些问题最好的AI智能体只能达到高人类水平,例如填字游戏、Dota 2、桥牌、汽车驾驶、《星际争霸》。
涉及感知与物理交互的问题

当转向类人类或次人类表现时,我们观察到这些问题通常与感知或物理交互有某种形式的联系。

基于此,达到类人类水平的问题有:光学字符识别、图像分类、手写识别。
而处于次人类水平的问题包括:印刷文本的光学字符识别、面部识别、稳定的双足行走、语音识别。
技术演进与未来展望
技术的演进和机器计算能力的提升,使得人工智能的性能不断提高。然而,这并不能保证一个今天我们用次人类性能处理的问题,明天就能以类人类或高人类性能解决。也就是说,我们可以想象,对于某些问题,即使在将来我们也可能无法设计出优于人类的智能体。

本节课中我们一起学习了如何根据与人类的对比来分类智能体的性能,并回顾了人工智能在不同类型问题(从高度结构化的游戏到复杂的感知任务)上的当前能力水平。我们了解到,虽然技术进步推动了AI性能的提升,但在某些涉及复杂感知和物理交互的领域,要达到或超越人类水平仍然面临挑战。
010:人工智能发展里程碑 🚀


在本节课中,我们将回顾人工智能发展历程中的关键里程碑。这些具体的、具有挑战性的AI系统的部署,是吸引公众关注和推动研究资金投入的关键。我们通常将那些产生最大影响的AI系统称为里程碑。
早期里程碑:公众认知的开启
上一节我们提到了AI发展的宏观背景,本节中我们来看看那些标志性的早期系统。以下是两个具有开创性意义的早期AI系统:

- Eliza (1966年):这是一个聊天机器人。它是首个向公众展示人工智能潜力的系统,引发了所有媒体的关注,并将人工智能置于科学研究议程的中心。
- XCON (1980年):这是一个专家系统。它能够根据客户需求,提供如何配置计算机系统的建议。采用XCON的公司估计每年节省了约2500万美元。XCON是推动AI第二次发展浪潮的关键。
算力与技术的突破:从游戏到现实
然而,我们必须等到90年代末才迎来第一次重大突破。从2000年开始,一系列里程碑的出现得益于现代计算机计算能力的提升以及新的、更强大的技术的发展。

以下是几个关键突破:
- 深蓝 (1997年):由IBM开发的深蓝在国际象棋比赛中击败了最好的人类棋手。深蓝主要基于暴力计算(brute force),与今天采用的技术相比,其智能程度并不高。
- DARPA大挑战赛 (2005年):研究界在自动驾驶领域首次获得成功。
- 沃森 (2011年):IBM的沃森计算机在智力问答节目《危险边缘》中战胜人类。这个程序能够理解自然语言提问,是首个在游戏表示上不依赖于逻辑或代数等数学工具,而是结合了自然语言处理的经典技术与新颖统计方法的高水平人机对战程序。
- Waymo (2018年):谷歌在凤凰城推出了Waymo自动驾驶出租车服务,表明自动驾驶汽车已成为一项成熟技术。
深度学习时代:超越完美信息
从2012年起,深度学习时代来临。ImageNet竞赛中图像识别程序的性能急剧提升。2016年,应用于围棋游戏的深度学习程序AlphaGo战胜了顶尖人类棋手。
此后,AI开始攻克更复杂的“不完美信息”游戏。以下是相关进展:
- Libratus (2017年):在德州扑克中击败了世界排名前四的选手,赢取了超过180万美元。
- AlphaStar (2019年):在《星际争霸II》中击败了99%的人类玩家。
- GPT-3 (2020年):深度学习使得设计GPT-3成为可能。这是一个语言生成模型,首次能够生成可与人类创作相媲美的故事和诗歌等文本。


本节课中我们一起学习了人工智能发展史上的重要里程碑,从早期的Eliza聊天机器人、XCON专家系统,到深蓝、沃森在游戏和问答中的突破,再到深度学习驱动的AlphaGo、AlphaStar以及在自然语言生成上取得惊人成就的GPT-3。这些里程碑清晰地展示了AI技术从概念演示到解决复杂现实问题的演进路径。
011:科学社区的发展 📈

在本节课中,我们将学习人工智能科学社区的发展历程,通过分析多个维度的数据来了解其规模、增长趋势以及与产业的互动情况。

概述
人工智能领域的科学社区自诞生以来经历了显著的增长。我们将通过分析科研论文数量、产业合作情况以及教育规模这三个关键维度,来描绘这一社区的现状与发展趋势。
科学社区的早期规模
上一节我们回顾了人工智能的起源,本节中我们来看看其科学社区的初始规模。
1956年达特茅斯会议时,人工智能领域的研究人员数量仅为个位数。

指数级增长的科学社区

如今,科学社区正在呈指数级增长。通过分析以下几个维度,我们可以获得清晰的图景。
维度一:各国发表的AI科研论文数量

这个维度通常用于衡量研究成果的产出,它综合了研究人员数量和资金投入等信息。
最令人印象深刻的数据是论文数量的增长。数据显示,2000年至2019年间,论文数量的增长超过了 600%。

并且,这些论文中几乎有三分之一是在2017年至2019年间发表的。


维度二:与公司合作的论文数量
这个维度显示了产业界与学术界如何协同工作。以下是关于产业合作的情况:
在人工智能领域,近 10% 的论文中,至少有一位合著者在产业界工作。这表明学术界与产业界之间存在着非常紧密的合作关系。

维度三:教学规模
最后,我们分析教学相关的维度,特别是课程数量和选课学生数量的增长。
课程数量是衡量学生所能达到的专业化水平的一个良好指标。例如,斯坦福大学在2020年开设的课程数量非常惊人,每年接近 80 门课程。
选修人工智能课程的学生数量,则很好地衡量了一个国家采纳和发展新AI技术的能力。同样,美国顶尖大学中,选修人工智能基础课程的学生数量也非常庞大,每所大学都超过 1000 人。

总结

本节课中,我们一起学习了人工智能科学社区的发展。我们了解到,该社区从最初寥寥数人的规模,已发展成为通过科研论文数量(增长超600%)、产业合作(近10%的论文有产业界参与)和教育规模(顶尖大学年开课近80门,学生超千人)等多个维度都显示出强劲增长活力的庞大网络。这些数据清晰地展示了人工智能领域的蓬勃生机与广泛影响力。
人工智能概述专项课程:P12:工业界的人工智能研究

在本节课中,我们将要学习人工智能在工业界的研究现状,了解企业与学术界的合作如何推动人工智能技术的发展。
自2010年以来,许多公司建立了人工智能和机器学习实验室。这些实验室招募了来自学术界的科研人员,并与公司内部的工程师进行协作。
这些研究人员参加学术会议,发表科学论文,展示他们的工作成果。同时,他们利用研究成果来革新公司的产品与服务。因此,人工智能研究在许多公司的技术发展中处于核心地位。与此同时,工业界在科学研究中也扮演着重要角色。


例如,许多人工智能领域的里程碑式成果都是由私营企业的实验室部署实现的。
因此,促进科学界与企业之间的协同合作,对每个国家而言都至关重要。
以下是主要的私营人工智能实验室:
- Microsoft
- Amazon
- Apple
- IBM

平均而言,这些实验室各自拥有超过1000名研究人员。它们通过奖项和资助来支持学术研究人员。
这些公司在人工智能研究领域的影响力非常巨大,以至于它们共同成立了“人工智能合作伙伴关系”。这是一个专注于人工智能与社会接口的联盟。

具体来说,该联盟的目标是负责任地使用人工智能。2018年10月,百度成为第一家加入该联盟的中国公司。到2019年,已有来自学术界、民间社会、工业界和非营利组织的100多个合作伙伴成为其成员。
除了大型科技公司,许多其他公司也开设了支持人工智能研究的实验室。

以下是部分公司的例子:
- Adobe
- NVIDIA
- Uber
- Intel
- McKinsey
- Sony
- Samsung
- BBC
- Accenture
如今,数据驱动的方法与人工智能工具被普遍认为是开发创新产品与服务的关键。正如各大公司所展示的,如果没有工业界与学术研究的深度融合,就无法实现这样的创新。


本节课中,我们一起学习了工业界人工智能研究的概况。我们了解到,自2010年起,企业通过建立实验室与学术界紧密合作,共同推动技术进步。大型科技公司不仅自身投入巨大,还通过联盟促进人工智能的负责任发展。数据驱动与人工智能的结合已成为创新的核心动力,而这离不开产业与研究的深度融合。
人工智能:概述 专项课程:第13讲:人工智能领域概览

在本节课中,我们将对人工智能相关的子领域进行概览。我们将探讨这些子领域是什么、它们各自的特点以及它们之间是如何相互关联的。后续课程的目标是详细讨论每一个子领域。
首先,主要的区分在于技术、技术实现以及监管与组织问题。
技术层面包括理论、模型和算法。值得注意的是,这些技术可能极其多样化,因此进行进一步的区分实际上是有益的。
具体来说,我们可以根据它们所模仿的人类能力,将其划分为三个主要子类:感知、行动和认知。
感知类技术
第一子类包含用于感知任务的技术。这类技术旨在模仿人类的感知能力。
以下是其主要领域:

- 计算机视觉:旨在模仿人类视觉所涉及的所有活动。
- 自然语言处理:旨在模仿语言所涉及的所有活动。
认知类技术
上一节我们介绍了模仿人类感知的技术,本节中我们来看看模仿人类认知的技术。这类技术处理信息处理、学习和决策。
以下是其主要领域:
- 机器学习:核心目标是从数据和感知中学习。其核心思想可以概括为:
模型 = 学习算法(训练数据)。 - 知识表示与推理:旨在对知识进行建模,并以逻辑化的方式基于这些知识进行推理。
- 规划与调度:旨在规划活动并在时间上对它们进行安排。
- 多智能体系统:包含处理多个智能实体进行社交互动(合作性或策略性)情境的技术。
行动类技术
接下来,我们从信息处理转向物理世界的交互。第三子类包含用于在物理世界中处理行动的技术。
其主要领域是:
- 机器人学:专注于设计、建造和编程能够在现实世界中执行任务的机器人。
从技术到技术实现
现在,让我们从抽象的理论转向具体的应用工具。技术实现可以是软件或硬件,旨在支持人工智能产品的开发。
我们区分支持人工智能产品设计的方法与提供现成开发资源的人工智能平台:
- 设计方法:指支持人工智能产品设计的流程与框架。
- 人工智能平台:提供可用于开发人工智能产品的软件库。其背后的核心理念是,大型科技公司开发出库,中小型公司无需重大投资即可使用。这通常被称为人工智能的民主化。
监管与组织问题
最后,我们必须考虑技术之外更广泛的背景。这包括伦理、法律问题以及对劳动力市场的影响。此外,还包括公共或私人组织如何最佳地构建其管理流程以开展人工智能项目。
总结

本节课中,我们一起学习了人工智能领域的整体框架。我们首先区分了技术、技术实现以及监管组织三大层面。在技术层面,我们根据模仿的人类能力,将其细分为感知(如计算机视觉、自然语言处理)、认知(如机器学习、知识推理)和行动(如机器人学)三类。接着,我们了解了支持这些技术落地的工具与平台。最后,我们认识到人工智能的发展必须考虑伦理、法律和社会组织等关键问题。在接下来的课程中,我们将对它们进行简要介绍。
014:感知与行动技术 🧠

在本节课中,我们将学习人工智能如何通过“感知”与“行动”两大核心能力与世界互动。感知使计算机能够获取并理解信息,而行动则使其能够执行物理任务。我们将分别探讨计算机视觉、自然语言处理和机器人技术这三个关键领域。
计算机视觉 👁️
上一节我们介绍了感知与行动的基本概念,本节中我们来看看计算机视觉。计算机视觉(CV)是一个跨学科的AI子领域,研究机器如何从数字图像或视频中获得高层次的理解。
其核心任务包括获取、处理、分析和理解数字图像的方法,以及从现实世界提取高维数据以产生数值或符号信息。换句话说,计算机将图像转换为算法可以使用的描述。
这种图像理解可以看作是利用几何学、物理学、统计学和学习理论构建的模型,从图像数据中解析出符号信息。
以下是计算机视觉的一些主要应用领域:
- 生物识别:如人脸、手势和姿态识别。
- 图像与视频处理:包括视频合成、检索、理解及活动分析。
- 运动与追踪。
- 机器人学与自动驾驶中的视觉应用。
- 对抗攻击与鲁棒性。
一些非常常见的应用实例包括:
- 从核磁共振图像中自动检测癌症。
- 使用生成对抗网络进行图像转换。
- 自动检测社交距离。
自然语言处理 🗣️
了解了计算机如何处理视觉信息后,我们转向另一种至关重要的感知任务——与语言相关的人工智能。自然语言处理(NLP)是语言学、计算机科学和人工智能的一个子领域,专注于计算机与人类语言之间的交互。
具体而言,其目标是编写程序让计算机处理和分析大量的自然语言数据。这样,计算机就能理解文档的内容,准确提取其中包含的信息和见解,并对文档本身进行分类和组织。
以下是自然语言处理的一些子领域:
- 传统AI与对话系统。
- 文本生成。
- 信息提取。
- 机器翻译。
- 问答系统。
- 语音处理与合成。
- 文本分类与情感分析。
一些非常常见的应用包括:
- 智能虚拟助手。
- 语言翻译。
- 从文档中检索信息。
- 电子邮件过滤器。
机器人技术 🤖
在探讨了感知技术之后,我们现在转向实现“行动”的主要领域——机器人技术。机器人技术是一个融合了计算机科学与工程的跨学科领域。
它涉及机器人的设计、构造、操作和使用。机器人技术的目标是设计能够帮助和增强人类能力的机器。它整合了机械工程、电气工程、信息工程、机电一体化、电子学、生物工程、计算机工程、控制与软件工程等多个领域。
机器人技术开发的机器可以替代人类并复制人类的动作。如今,机器人可以在许多情境和目的下使用。许多机器人被用于危险环境,包括放射性材料检查、炸弹处理与引爆、制造过程。它们也被用于人类无法生存的环境,例如太空、水下和高温环境,以及用于清理和隔离危险材料与辐射。
机器人可以呈现任何形态,但有些被设计成类似人类的外观。这有助于机器人在执行某些通常由人完成的重复性行为时被接受。这类机器人试图复制行走、举重、说话、认知以及任何其他人类活动。当今许多机器人受到自然的启发,这促进了仿生机器人学领域的发展。
以下是机器人技术的一些子领域:
- 人机交互。
- 定位、建图与导航。
- 操控。
- 运动与路径规划。
一些非常常见的应用包括:
- 制造业。
- 机器人手术。
- 清洁机器人。

本节课中,我们一起学习了人工智能实现感知与行动的三大关键技术。计算机视觉让机器能“看懂”图像和视频;自然语言处理让机器能“听懂”并处理人类语言;而机器人技术则综合多种工程学科,让机器能在物理世界中“行动”并完成任务。这三者共同构成了智能体与物理世界交互的基础。
人工智能:概述 专项课程:1.2:认知相关技术

在本节课中,我们将要学习与认知任务相关的四个主要人工智能子领域。认知涵盖了知识形成、记忆、判断、推理、问题解决和决策制定等诸多智力功能和过程。理解这些技术是构建智能系统的基础。

机器学习
上一节我们介绍了认知的广泛定义,本节中我们首先来看看机器学习。机器学习是研究能够通过经验和数据自动改进的计算机算法的学科。
机器学习算法基于样本数据(称为训练数据)构建模型,从而无需明确编程即可进行预测或决策。这些数据通常由计算机视觉或自然语言处理等AI感知系统生成。此外,机器学习的一个子集与计算统计学密切相关,后者为其提供了主要的理论基础。但并非所有机器学习都属于统计学习。数据挖掘是一个相关的研究领域,侧重于通过无监督学习进行探索性数据分析。
需要指出的是,当应用于商业问题时,机器学习也被称为预测分析或高级分析。
以下是机器学习的一些主要子领域:
- 无监督学习
- 监督学习
- 强化学习
- 分类与回归
- 聚类
- 深度神经网络
- 进化学习
- 在线学习与赌博机问题
- 量子机器学习
其非常常见的应用包括市场销售与需求预测等预测与预报、推荐系统、预测性维护以及异常检测系统。
知识表示与推理
从学习知识出发,我们接下来进入对知识的运用,即知识表示与推理。这个AI领域致力于以计算机系统可用于解决复杂任务的形式来表示关于世界的信息。
知识表示与推理借鉴了心理学关于人类如何解决问题和表示知识的发现,以设计出使复杂系统更易于设计和构建的形式化方法。同时,它也融合了逻辑学的成果,以自动化各种推理,例如应用规则或处理集合与子集的关系。
以下是知识表示与推理的一些子领域:
- 描述逻辑
- 知识工程
- 逻辑编程
- 本体论
- 自动推理
- 定理证明
其非常常见的应用包括语义网和专家系统。
规划与调度
一旦知识被处理并进行了某种形式的推理,我们就可以转向规划。具体来说,自动规划与调度是AI的一个分支,致力于为实现智能体、自主机器人和无人载具执行的策略或行动序列。
规划也与决策理论相关。规划需要组织一系列任务以实现给定目标。在已知环境且拥有可用模型的情况下,规划可以离线进行,解决方案可以在执行前被找到和评估。在动态未知环境中,策略通常需要在线修订,解决方案通常依赖于人工智能中常见的迭代试错过程,甚至利用学习工具。
以下是规划与调度的一些子领域:
- 确定性规划
- 优化
- 时空系统
- 计划执行与监控
- 规划、调度与学习
- 调度
- 时序规划
多智能体系统
最后,我们来看多个AI实体交互的场景,此时每个AI实体都需要明确考虑其他AI实体的存在,即多智能体系统。多智能体系统是由多个相互作用的智能体组成的计算机化自组织系统。
多智能体系统可以解决单个智能体或单体系统难以或无法解决的问题。其智能可能包括方法性、功能性、程序性方法,算法搜索或强化学习。
以下是多智能体系统的一些子领域:
- 对抗性智能体
- 协议、辩论与协商
- 协调与协作
- 分布式问题求解
- 机制设计
其非常常见的应用包括基于微观经济模型的自动经济交易、物理安全监控以及去中心化控制。

🎼



本节课中我们一起学习了与认知功能相关的四个核心人工智能子领域:机器学习负责从数据中学习模式;知识表示与推理负责以可计算的形式存储和运用知识;规划与调度负责制定行动序列以实现目标;多智能体系统负责处理多个智能实体之间的交互与协作。理解这些领域是掌握人工智能如何模拟和实现人类认知过程的关键。
016:技术与方法论

在本节课中,我们将学习人工智能的技术与方法论。我们将了解技术如何关注AI系统的开发与部署,而方法论则涉及项目的规划、开发与管理流程。课程还将探讨AI民主化的重要性及其实现路径。

技术与方法论概述
上一节我们介绍了人工智能的核心技术。本节中,我们来看看支撑这些技术实现与应用的开发流程与基础设施,即技术与方法论。

- 技术关注AI硬件如何被开发与部署。
- 方法论则处理项目的开发与管理。
AI项目开发流程
许多AI项目具有高风险性,因此需要严谨的开发流程。这个过程通常从构思开始,逐步推进。
以下是AI项目从概念到落地的典型阶段:
- 构思与蓝图:从想法出发,制定详细方案并进行评估。
- 概念验证:开发一个POC以验证核心想法的可行性。
- 最小可行产品:最终部署一个MVP,投入实际使用。
方法论的具体构成
受软件工程启发的方法论开始被专门用于支持AI技术的开发。方法论涵盖多个层面。
以下是方法论包含的主要组成部分:
- 软件基础设施:用于处理大数据并实现AI算法。
- 硬件基础设施:许多算法,特别是处理海量数据的深度学习技术,需要巨大的计算能力。以GPU为代表的硬件加速器,在实践中使得多种AI算法的计算变得可行。
- AI平台:一种融合软硬件的特殊方法论。
AI平台与民主化
面对技术人才短缺的问题,大型科技公司推出了预制的AI工具,降低了AI的应用门槛。
以下是关于AI平台的关键信息:
- 平台功能:像微软、亚马逊和谷歌这样的大公司发布了拖放式或无代码的AI工具,使人们无需懂得如何构建机器学习模型,就能将AI集成到应用中。
- 应用领域:目前这些平台主要提供适用于计算机视觉和自然语言处理应用的工具。
- 持续发展:大公司正大力投资以丰富其平台提供的算法。
平台通常被认为是实现AI民主化的主要途径。其核心理念是,只有大公司能招募人才并自主开发AI项目,而中小型企业则难以做到。因此,提供无需专门人才即可利用的构建模块来开发AI应用,使得中小企业也能启动自己的AI项目。
在实践中,民主化降低了个体和组织开始尝试AI的门槛。他们可以利用公开的数据和算法,在云基础设施上开始实验并构建AI模型。
民主化的影响与路径
民主化通过社区的力量降低了构建AI解决方案的整体成本,并加速了AI的采纳。
以下是民主化带来的具体益处:
- 降低成本:当程序员和用户社区开始使用并扩展数据、算法和工具时,构建强大解决方案的整体成本得以降低。
- 培养人才:将数据或硬件开源,使其能被他人自由使用,有助于培养必要的人才。
- 加速采纳:民主化提高了AI在学术界和商业界的应用速度。
有趣的是,民主化按照一个明确的时间表,逐步应用于多个资源领域。
以下是实现民主化所涉及的资源路径:
- 数据
- 存储与计算能力
- 算法
- 模型部署
- 市场
民主化的有效性将对AI的整体成功至关重要。


本节课中,我们一起学习了人工智能的技术与方法论。我们明确了技术聚焦于开发与部署,而方法论涵盖了从项目蓝图到MVP部署的完整流程。我们重点探讨了AI平台作为关键方法论,如何通过提供易用工具来推动AI的民主化,降低应用门槛,并最终加速AI技术在各个领域的普及与发展。理解这些支撑体系,对于全面认识AI生态至关重要。
017:法规与组织问题

在本节课中,我们将探讨人工智能(AI)在公共部门应用时引发的法规与组织问题。我们将了解AI带来的机遇与挑战,并学习如何通过负责任的创新来确保其发展符合伦理、公平与安全。
概述
海量大数据资源的可用性、云计算平台的速度与扩展性,以及复杂机器学习算法的进步,共同催生了人工智能领域的一系列创新。

理论上,人工智能系统对政府的积极影响体现在改善医疗保健服务、教育和交通等方面。
公共部门中受益于AI系统实施的其他应用还包括食品供应链、能源和环境管理。
然而,AI处理海量数据和大规模决策的能力,也可能加剧歧视现象。
因此,公共部门组织可以通过创建负责任的创新文化,来预测和防止未来潜在的危害,从而开发和实施符合伦理、公平且安全的AI系统。
这意味着,参与AI项目设计、生产和部署的每一个人,包括科学家、工程师、领域专家、交付经理和部门负责人,都应优先考虑AI的伦理与安全问题。
AI伦理问题
上一节我们介绍了AI在公共部门的潜力与风险,本节中我们来看看具体的伦理问题。
人工智能伦理是技术伦理的一个分支,专门针对人工智能系统。它有时被分为两个方面:一是关注人类在设计、制造、使用和对待人工智能系统时的道德行为;二是关注机器在机器伦理中的行为。
它还包括由超级智能AI可能引发的“奇点”问题。
伦理问题的重要性推动了许多大学在教育项目(如理学硕士课程)中引入AI伦理课程。
法律与监管问题
伦理问题只是人工智能引发的问题之一。法律问题同样至关重要。
例如,想象一个做出决策的算法,而其决策违反了某些规范。谁该为这种违规行为负责?这只是法律问题的一个简单例子。
可能最重要的问题是隐私担忧和问责制。
具体而言,关于隐私,AI硬件依赖于设备间的持续交互,并能监控人类的所有活动。这些必须受到严格监管。
关于问责制,AI设计者和开发者有责任考虑AI的设计、开发、决策过程及其结果。
此外,其他重要的法律问题也正在被世界各国政府调查研究中。
组织影响与就业市场
最后,人们普遍承认AI将影响公共行政机构和公司的组织架构。
一个简单的例子是新的职位角色的诞生,例如AI工程师和机器学习工程师。未来可能还会出现新的角色。
此外,新的组织结构也在不断被提出和采纳。
伴随着职位角色的变化,管理变革对于允许雇主转向AI范式至关重要。
这种变革将以多种方式影响就业市场。在这些方式中,关键的一点是监控人类如何被机器取代,以及这种取代带来的影响。

尽管这不一定意味着完全的取代。例如,目前欧洲有数百万IT专家的短缺,而AI使用的增加可能有助于缓解这种短缺。
总结

本节课中,我们一起学习了人工智能在公共部门应用时面临的法规与组织挑战。我们探讨了AI的伦理考量、法律与隐私问题,以及它对组织结构和就业市场的深远影响。理解这些问题对于负责任地开发和部署AI技术至关重要。
018:国家人工智能战略的必要性

在本节课中,我们将探讨人工智能对国家未来的深远影响,以及为何各国需要制定专门的国家级人工智能发展战略。我们将了解全球人工智能市场的潜力、各国的准备度差异,以及不同国家战略的核心特点。

人工智能将在诸多方面影响我们的未来,例如经济发展、国防、人民安全与隐私。
麦肯锡在2018年发布的几份报告估计,人工智能每年将释放的全球市场价值将超过15万亿美元。

然而,这些报告也强调,每个国家所能释放的价值将取决于其自身的准备度水平。
准备度水平取决于多个因素,包括对人工智能的投资、人工智能研究活动、人力资本以及劳动力市场结构。
在准备度排名中,国家被分为四个等级。第一梯队包括美国和中国。

第二梯队包括英国、法国、德国、澳大利亚、加拿大、瑞典、挪威、韩国等多个国家。意大利与哥斯达黎加、印度、立陶宛、西班牙一同被归为第三梯队。根据这份报告,意大利存在重要的结构性弱点,特别是与劳动力市场相关的方面。
人工智能的发展对一个国家至关重要,因此需要制定国家战略。
国家战略应明确必要的步骤,以提高准备度水平,并促进人工智能在公司、公共管理和教育领域的发展和采用。协调经济发展,使公民受益,只是国家战略需要处理的任务之一。
另一个关键任务是如何保护公民免受潜在的意外后果影响。这迫切要求制定法规,其中也包括伦理和法律问题。
第一个制定国家战略的国家是加拿大,时间是2017年。该战略名为“泛加拿大人工智能战略”,其重点在于对科学、技术研究和人才的投入。以下是四个主要目标:
- 增加研究人员数量。
- 确定卓越中心。
- 支持在经济、伦理和法律问题上的领导力。
- 支持科学研究社群。
在加拿大之后,许多其他国家也制定了本国战略。有趣的是,没有任何两个战略是相同的,每个战略都侧重于人工智能政策的不同方面。例如,科学研究、人才培养、技能教育、公共和私营部门应用、伦理与包容性、标准与法规,以及数据和数字基础设施。

在迄今为止制定的所有国家战略中,美国、中国和欧洲的战略无疑最为重要。

最有趣的是,它们采用了完全不同的视角。例如,在美国和中国,监管问题被推迟到未来五到十年解决,因此目前的发展在很大程度上是放松管制的。
在美国,发展主要由大型科技公司驱动;而在中国,则主要由政府驱动。相反,欧洲将监管问题视为大规模发展人工智能技术之前需要解决的首要问题。
在接下来的三讲中,我们将深入分析这三种战略。

本节课中,我们一起学习了人工智能对国家发展的战略重要性。我们了解到全球人工智能市场的巨大潜力受制于各国的准备度,并认识到制定国家战略对于抓住机遇、管理风险至关重要。不同国家(如加拿大、美国、中国和欧洲)的战略在侧重点和监管哲学上存在显著差异,这反映了各自不同的发展路径和优先事项。
019:美国的人工智能战略 🇺🇸

在本节课中,我们将学习美国在人工智能领域的发展战略。我们将回顾从奥巴马政府到特朗普政府时期,美国在AI政策、法规和投资重点上的演变。
概述
美国的人工智能战略始于奥巴马总统任期。其核心目标是理解AI的潜在影响与风险,并制定战略以引导未来的AI发展。为此,美国发布了三份关键报告。
奥巴马政府时期的AI战略
上一节我们提到了美国AI战略的启动背景,本节中我们来看看奥巴马政府时期发布的三份核心报告及其建议。
第一份报告:《为人工智能的未来做准备》
这份报告重点关注伦理问题与法规。以下是其提出的三项最关键的建议:
- 关注数据:数据被几乎所有国家战略视为AI技术的主要驱动力。报告规定,联邦机构应优先考虑AI中的开放数据培训和开放数据标准。这是因为数据被认为是人工智能最重要的“燃料”。因此,开放数据并定义数据标准对于促进AI部署至关重要。
- 建立监督委员会:报告建议成立特别委员会来监控AI的发展,并定期向政府报告。
- 优先基础研究:报告建议联邦政府应优先考虑基础性和长期的人工智能研究。
第二份报告:《国家人工智能研发战略计划》
这份报告为公共资金投入科学研究提出了优先事项。以下是其核心建议:
- 进行长期投资:建议对AI研究进行长期投资。
- 发展人机协作方法:开发有效的人机协作方法。
- 确保系统安全:确保AI系统的安全与保障。
该文件于2019年更新,并规定了美国当前的国家战略。
第三份报告:《人工智能、自动化与经济》
这份报告评估了自动化对各行各业(如工业、行政、商业、教育等)的影响,并旨在优化收益与成本之间的权衡。报告特别关注AI将如何影响市场层面,以及应如何重组市场以促进AI技术的发展。
这些报告将AI发展置于政府议程的中心,并推动了相关法规的制定。
特朗普政府时期的战略转变

上一节我们了解了奥巴马政府以报告和规划为核心的AI战略,本节中我们来看看特朗普政府时期战略的显著变化。
2017年,特朗普总统放宽了对AI发展的监管,让大型科技公司主导AI技术的开发。2018年,在一次与大型科技公司的峰会上,白宫定义了四大目标:
- 保持美国在AI领域的全球领导地位。
- 支持劳动力。
- 通过公共资金促进研发。
- 消除创新障碍。
为实现这些目标,白宫采取了一系列措施:
- 成立了人工智能优先事项咨询委员会。
- 创建了产业界与学术界之间的联邦合作伙伴关系。
- 取消了部分法规。
2021年,白宫计划在AI相关研发项目上投资超过80亿美元,相比2020年增长约50%。然而,政府的优先事项是国防与安全,将其他更广泛领域的AI应用开发直接交由公司驱动。
总结

本节课中,我们一起学习了美国人工智能战略的演变。我们从奥巴马政府时期以三份核心报告(关注伦理、研发战略、经济影响)为基础的规划性战略开始,看到了其对数据、基础研究和监管的重视。随后,我们探讨了特朗普政府时期的战略转变,其特点是放松监管、鼓励私营企业主导,并将投资重点转向国防与安全领域。这一演变反映了美国在不同时期对AI技术发展路径和风险权衡的不同考量。
020:中国的AI战略


在本节课中,我们将要学习中国政府在人工智能领域的国家战略。我们将了解该战略的核心目标、具体里程碑、以及为实现这些目标所规划的重点技术领域和资源投入。
2017年,中国政府宣布其目标是成为全球人工智能领域的领导者。
其战略名为《新一代人工智能发展规划》,并通过三个里程碑年份——2020年、2025年和2030年——为地缘政治、经济和监管制定了清晰的议程。
在地缘政治方面,中国的目标是到2020年,其产业技术水平能与全球竞争对手相媲美;到2025年,在某些应用领域成为世界领先者;到2030年,成为全球人工智能创新的领导者。
在经济方面,该战略估计,到2020年,人工智能解锁的市场价值将达到230亿美元;到2025年达到600亿美元;到2030年达到1500亿美元。

在监管方面,该战略确立了一条清晰的路径,旨在到2030年完成相关规范和规则的编纂。
中国的战略强调了在全球范围内招募顶尖人才的必要性。根据一份最新报告,对于超过50%实施了人工智能项目的公司而言,面临的最大挑战是缺乏合格的人员。
该战略旨在加强本地劳动力市场,支持企业与机构合作进行人工智能培训,并制定法规和伦理规范,以促进人工智能技术的发展和应用。


有趣的是,中国的战略还明确指出了需要优先发展的技术领域。
以下是战略聚焦的核心技术方向:
- 智能互联物体:例如自动驾驶汽车、机器人和识别系统。
- 智能传感器与神经网络芯片。
- 智能制造。
此外,中国政府决定在北京开设一个专注于工业研究的人工智能科技园,投资额为21亿美元。更广泛地说,中国每年为人工智能科学与工业研究提供的公共资金总额高达80亿美元。

本节课中,我们一起学习了中国的人工智能国家战略。我们了解到该战略设定了分阶段的地缘政治、经济和监管目标,强调了人才的重要性,并明确了智能互联物体、智能芯片与智能制造等关键技术发展重点,同时辅以大规模的资金投入。这为我们理解全球人工智能竞争格局提供了一个重要视角。
021:欧盟的人工智能战略

概述
在本节课中,我们将学习欧盟在人工智能领域所采取的战略方针。这一战略的核心是“以人为本”和“可信赖的人工智能”,并建立了一套基于风险评估的严格监管框架,旨在促进人工智能技术的安全、负责任发展与应用。
欧盟的人工智能方针
欧盟对人工智能采取的是以人为本的方针。这意味着,只有当人工智能对人类有益时,才应被开发。
显然,在授权每一类特定的人工智能应用之前,都需要仔细分析其益处与风险。
因此,这一方针在很大程度上依赖于中央机构制定的法规。

具体而言,最能体现欧洲战略的关键词是“可信赖的人工智能”。
监管历程
欧盟针对人工智能的监管活动始于2015年。
具体而言,在2015年,我们看到了《欧洲人工智能战略》的发布。
随后,所有成员国签署了第一份关于人工智能的协调计划。
2015年之后,欧盟委员会采取了一系列步骤。
在2019年,发布了《可信赖人工智能指南》。
在2020年,发布了名为《人工智能白皮书》的文件,其中阐述了欧盟对人工智能的愿景,即追求卓越与可信赖。这份文件为2021年发布的法规铺平了道路。
同样在2020年,还发布了关于人工智能、物联网和机器人技术安全与责任影响的报告。欧盟委员会在其中指出了一系列需要解决的开放性问题,以确保多种产品(特别是机器)的安全性。
在2021年,发布了《关于制定人工智能统一规则条例的提案》,即《人工智能法案》。该法案提供了严格的监管规定。
核心理念
欧盟委员会两位成员在2021年发表的声明很好地总结了欧盟的方针。
根据欧盟委员会执行副主席玛格丽特·韦斯塔格的看法,可信赖不是一种选择,而是一项严格要求。
同时,欧盟内部市场专员蒂埃里·布雷顿将人工智能视为一种工具,因此只有当它有益于人类时才应被使用。
欧洲战略背后的核心理念是,监管框架可以促进人工智能的普及。

首先,它将增加用户的信任,从而增加企业和公共机构对人工智能的需求。
它还将增加法律确定性,并通过统一规则,让人工智能提供商能够进入更大的市场,提供用户和客户欣赏并购买的产品。
换言之,欧盟委员会认为,如果不规避风险、保证可信赖性并解决法律问题,就不可能实现人工智能技术的有效发展。
风险分级管理
欧盟委员会确定了几个风险等级。第一个是可接受风险。
欧盟将禁止少数特别有害、违背欧洲价值观(因为它们侵犯基本权利)的人工智能应用。
以下是一些例子:
- 政府实施的社会信用评分。
- 利用儿童弱点。
- 使用潜意识技术。
- 除少数例外情况外,在公共场所用于执法目的实时远程生物识别系统。
接下来是高风险。这一级别对应的是数量有限、会对人身安全或其基本权利(受《欧盟基本权利宪章》保护)产生不利影响的人工智能系统。
欧盟委员会制定了一份高风险人工智能系统清单,该清单可根据人工智能用例的发展进行审查。
为了确保信任、高水平的安全和基本权利,提案为所有高风险人工智能系统提出了强制性要求。
这些要求涵盖:
- 所用数据集的质量。
- 技术文档和记录保存。
- 透明度及向用户提供信息。
- 人工监督。
- 稳健性、准确性和网络安全。
然后是有限风险。对于某些存在特定操纵风险(例如通过使用聊天机器人)的人工智能系统,需要施加特定的透明度要求。
例如,用户应意识到他们正在与机器互动。
最后是最小风险。所有其他人工智能系统可以根据现有立法进行开发和使用,无需承担额外的法律义务。
目前欧盟使用的大多数人工智能系统都属于此类。这些系统的提供商可以自愿选择应用可信赖人工智能的要求,并遵守自愿行为准则。
执行与资助
成员国在法规的应用和执行中扮演着关键角色。在这方面,每个成员国应指定一个或多个国家主管当局,负责监督法规的应用和实施,并进行市场监督活动。
为了提高效率并建立与公众及其他对应机构的官方联系点,每个成员国应指定一个国家监督机构,该机构也代表该国参与欧洲人工智能委员会。
除了对人工智能进行严格而精确的监管外,欧盟还制定了明确的人工智能发展与采用计划。
资金将通过“数字欧洲”和“地平线欧洲”等欧洲计划进行分配。

用于数字化转型的资金比例将约为20%。
此外,欧盟鼓励战略信息交流、数据和计算基础设施共享。它还通过创建公私实体间的数字创新伙伴关系,促进人工智能卓越发展以及人才从实验室向市场的流动。

总结
本节课中,我们一起学习了欧盟的人工智能战略。我们了解到,该战略以“以人为本”和“可信赖”为核心,通过建立基于风险分级的严格监管框架来管理人工智能应用。同时,欧盟也通过资金支持和鼓励合作,旨在安全、负责任地推动人工智能技术的发展与普及。
人工智能概述专项课程:第22讲:意大利人工智能领域的主要参与者概述

在本节课中,我们将梳理意大利人工智能领域的主要机构参与者。这些机构虽然关系密切,但在不同层面扮演着不同角色。我们的目标是简要介绍这些参与者,在后续课程中,我们将通过访谈更详细地了解它们的使命与活动。
在意大利,有多个人工智能领域的机构参与者。即使这些参与者关系密切,它们也在不同层面扮演着不同角色。
以下是意大利国内的主要参与者:
- 意大利人工智能协会:按时间顺序,最早的参与者是意大利人工智能协会。其缩写为AI*IA,代表“人工智能促进人类”。它成立于1988年,汇集了意大利大多数人工智能科学家。
- 其他学术协会:然而,AI*IA并非意大利唯一的人工智能学术协会。其他意大利人工智能协会或国际协会的意大利分会包括:逻辑编程小组、医疗人工智能协会、自然语言处理协会、认知科学协会、计算机视觉与模式识别协会,以及国际神经网络学会意大利分会。
- 数字意大利机构任务组:2017年,数字意大利机构启动了一个任务组,研究人工智能解决方案和技术的传播如何影响公共服务的演变,以改善公共管理与公民之间的关系。该任务组由30名专家组成,并发布了一份名为《为公民服务的人工智能》的白皮书。
- CINI人工智能实验室:2018年7月,CINI人工智能与智能系统国家实验室成立。它基本上是一个由所有从事人工智能领域的意大利大学和研究中心组成的网络。
- 经济发展部专家组:2018年10月,意大利经济发展部启动了一个由30名人工智能专家组成的团队,称为“人工智能高级别专家组”。成员来自学术界、工业界和民间社会。2020年,该小组发布了一份报告,为意大利人工智能战略提出了若干建议。
- 大学与研究部项目:与经济发展部的活动并行,2019年,意大利大学与研究部组建了一个学者小组,以验证国家人工智能研究计划,该计划于2021年发布。此外,2021年,意大利大学与研究部启动了国家人工智能博士项目。
上一节我们介绍了意大利国内的主要机构。本节中,我们来看看这些意大利机构与欧洲网络的紧密联系。
意大利的学术协会和CINI实验室与欧洲协会和学术网络紧密相连,以促进合作、共享计算基础设施并共同规划下一步研究。特别值得提及的有以下三个欧洲组织:

- EurAI:这是欧洲人工智能协会,前身为ECCAI。它成立于1982年7月,是欧洲人工智能界的代表机构。其宗旨是促进欧洲人工智能的研究、开发与应用。
- ELLIS:这是一个欧洲卓越网络,汇集了许多欧洲人工智能与机器学习实验室。它成立于2018年,其使命通过两种方式使欧洲受益:第一,加强欧洲最好的基础研究,使欧洲能够塑造机器学习和现代人工智能如何改变世界;第二,凭借卓越且独立于工业界影响的免费基础研究,对欧洲经济产生影响并创造就业机会。
- CLAIRE:这是一个欧洲卓越网络,成立于2018年。它是人工智能实验室联合会。CLAIRE旨在加强欧洲在人工智能研究与创新方面的卓越性。该网络建立在欧洲人工智能研究实验室联合会的基础上,其成员团体和组织致力于共同努力实现CLAIRE的愿景:以人为中心,为整个欧洲实现卓越的人工智能。

本节课中,我们一起学习了意大利人工智能生态系统的主要参与者。我们首先介绍了国内的关键机构,包括学术协会、政府任务组、国家实验室以及各部委推动的战略计划。接着,我们探讨了这些意大利实体如何与EurAI、ELLIS和CLAIRE等重要的欧洲研究与协作网络紧密连接,共同推动欧洲在人工智能领域的发展与竞争力。
023:意大利人工智能协会访谈

概述
在本节课程中,我们将通过意大利人工智能协会主席Pierro Popochanantti的访谈,了解该协会的使命、活动以及其对意大利及欧洲人工智能发展的看法。我们将学习到协会如何促进研究、教学,并探讨在欧洲独特的经济背景下发展人工智能所需的关键步骤。
协会简介与使命 🏛️
Pierro Popochanantti自1974年起便在计算机科学领域工作。他曾为Monte de Paquena机构执行人工智能领域的项目,涉及文档与培训的知识呈现系统、手语翻译应用、公司法规的查询应答以及基因与本体论。自2000年起,他成为意大利人工智能协会的董事会成员,并于2017年12月出任协会主席。
意大利人工智能协会是一个于1988年成立的科学协会,旨在促进人工智能相关技术的研究与传播。该协会是欧洲人工智能协会在意大利的成员,也是意大利最重要的人工智能协会,拥有超过1000名会员,包括学术界和工业界人士。协会支持欧洲层面的Clive和Alice倡议。
协会的主要活动 📚
上一节我们介绍了协会的基本情况,本节中我们来看看协会具体开展哪些活动。协会致力于增进对人工智能的了解,促进其教学,并推动该领域的理论与应用研究。
以下是协会开展的主要活动形式:
- 通过研讨会、针对性活动和赞助来组织活动。
- 在协会内部,设有多个专注于特定研究主题的工作组。目前有8个工作组,分别关注智能体与多智能体系统、人工智能与法律、人工智能教育、人工智能与机器人、机器学习与数据、知识表示与自动推理、自然语言处理以及论证。
- 协会每年组织一次全国性的科学活动,以及其他面向学术界和工业界的倡议。
- 协会颁发奖项和奖学金,以鼓励学生和年轻研究人员参与其举办的活动。
自2014年起,协会通过举办会议和辩论来分析人工智能的经济与社会影响,并邀请高中生和本科生参与。对于学生,协会还推广采用同伴教学方法的培训活动,让学生们互相教学。自2019年起,协会每年举办一次专门面向企业的论坛,旨在将研究界和工业界的社群聚集在一起。协会坚信,若没有这两个社群之间的紧密交流与融合,就无法实现有效的人工智能发展与采用。
支持意欧AI发展的关键步骤 🚀

了解了协会的活动后,我们接下来探讨在意大利和欧洲最佳地支持人工智能发展需要解决哪些主要问题。意大利和欧洲的社会经济情景与中国和美国截然不同。
具体而言,意大利和欧洲拥有丰富的中小型企业,而大型公司采用的业务和发展模式并不适用于中小型企业。这催生了对新模式的需求。
以下是实现目标需要应对的几个关键步骤:
- 利用基础研究来克服驱动大型企业云业务的一些问题。
- 启用可互操作的云基础设施、雾计算和边缘计算,以便为微型、小型和中型企业提供解决方案。
- 为了实现这一目标,还需要整合符号与亚符号模型,并赋予机器抽象技能,以优化其行为、适应环境并解释其行动和建议。当可用数据量不足以采用深度学习方法时,这一点尤为重要。
核心公式/概念:AI发展 = 基础研究 + 可互操作的基础设施 + (符号AI + 亚符号AI)
但首先,协会正在推动跨学科和多学科的贡献,推动人工智能及整个经济模式朝着人类与地球的可持续性方向发展。仅有规则是不够的,我们需要一场深刻的社会文化变革。协会确信,人工智能可以成为一个有价值的工具,来改变前进的方向。
总结
本节课中,我们一起学习了意大利人工智能协会的背景、目标及其开展的各种活动,从学术研讨到产业论坛。更重要的是,我们探讨了在欧洲以中小企业为主的经济生态中,发展人工智能需要关注基础研究、基础设施互操作性、技术融合以及推动社会文化向可持续方向转变等关键步骤。这为我们理解人工智能在不同地域背景下的发展策略提供了重要视角。
024:CINI人工智能与智能系统实验室访谈
在本节课中,我们将了解意大利CINI人工智能与智能系统实验室的使命、结构与主要挑战。本次访谈由米兰理工大学的Victor Carra教授主持,嘉宾是意大利摩德纳和雷焦艾米利亚大学的Rita Cucchiara教授。


受访者介绍

Rita Cucchiara是意大利摩德纳和雷焦艾米利亚大学工程与物理系计算机工程与科学领域的全职教授。她领导着IH实验室,该实验室活跃于计算机视觉、模式识别和多媒体领域。自2018年起,她担任CINI人工智能与智能系统实验室的主任。同时,她也是意大利政府人工智能高级专家组的30名成员之一。
实验室概况与使命
上一节我们介绍了受访者,本节中我们来看看她所领导的实验室。
CINI是意大利信息学联盟,这是一个由超过50所意大利大学组成的机构,在意大利大学与研究部的监督下,从事计算机科学与工程研究。2018年,在意大利部长会议主席的认可下,CINI成立了人工智能与智能系统实验室。这是一个非常庞大的网络,因为它连接了57个节点,包括54所大学、意大利国家研究委员会、意大利技术研究院以及的里雅斯特的Abdus Salam国际理论物理中心。我们有超过1000名附属研究员在意大利共同在这个实验室中工作。
该实验室的目标是多方面的。
以下是其主要使命:
- 加强研究:加强意大利在人工智能与智能系统所有主题上的研究,并在全球范围内推广意大利的人工智能研究。
- 促进产学合作:推动意大利人工智能研究与意大利各行业,特别是IT产业、中小企业和初创公司的合作。目前已有超过100家初创公司与大学研究中心建立了联系。
- 造福社会:将人工智能技术的好处带给社会,应对公共行政、健康、交通、农业食品、太空、文化遗产和国家安全等广泛领域的诸多社会挑战。
- 协调国内外倡议:协调意大利学术研究系统与国内外机构的人工智能倡议。
最终,实验室的工作主要围绕三个方向展开。
以下是其工作方向:
- 对接国内机构:创建与意大利国内机构(如研究部、经济发展部、外交部)对接的接口结构。
- 建立国际双边联系:建立双边国际联系,已与英国、以色列、加拿大、南非、法国等国家开展了大量合作。
- 构建欧洲研究社区:在意大利周边创建一个庞大的欧洲研究中心社区,促进项目参与。经过两年半的实际运作,实验室已提交了关于卓越中心、产业合作以及人类中心人工智能网络的欧洲项目申请。
实验室对意大利AI发展的支持
了解了实验室的使命后,我们来看看它是如何具体支持意大利人工智能技术发展的。
实验室是一个由多个实验室组成的网络,而创建一个研究网络是首要且绝对重要的一点,尤其是在意大利。我们拥有许多不同的实验室和研究中心,分散在全国各地。这不仅仅是一个个人网络,更是一个机构网络,这一点非常重要,因为我们代表的不是个人,而是我们的大学和研究中心。我们拥有覆盖意大利全境的庞大研究资源,可供所有机构和公司使用。我们清楚地知道这57个实验室在人工智能领域正在做什么。
我们与许多大型意大利企业(如莱昂纳多公司、意大利国家铁路公司)以及机构(如信息安全部门)开展了项目合作,还有意大利-以色列联合项目以及面向公共行政部门的项目。
但最重要的是,我们认为实验室支持了意大利机构在技术发展战略制定方面的作用。例如,去年我们提交了一份名为《人工智能助力未来意大利》的文件,其中包含我们向所有意大利机构和产业界提出的建议。我们相信这已经产生了良好的影响。
鉴于人工智能在所有领域的渗透性,我们希望并致力于成为疫情后复苏时期的一种推动力。毫无疑问,CINI实验室在这场“意大利复兴”中扮演着重要角色并产生重要影响。

人工智能面临的主要挑战
最后,我们来探讨当前人工智能面临的主要挑战。
挑战如此之多,很难给出一个全面的列表。我认为有一些理论挑战对未来人工智能的发展至关重要。
以下是一些关键的理论挑战:
- 可持续与联邦深度学习:设计可持续和联邦式的深度学习技术。
- 持续学习与可解释AI:研究持续学习或可解释人工智能等课题,这符合欧洲以人为中心的人工智能愿景。
- 隐私保护:创建具有隐私意识的网络。例如,如果你想模仿人类工作来分析人类行为,你需要理解人们在做什么,但不需要知道他们是谁。因此,你可以通过新的训练和新的架构来实现同样的功能,仅处理人的形状信息而不涉及个人身份。这种具有隐私意识的计算机视觉系统可以在工业、电子商务、媒体分析、医学、文化遗产以及许多现在对人工智能至关重要的高风险系统中得到大量应用。
我们在摩德纳的实验室以及新的欧洲人工智能与视觉中心(得益于地区和国家资金以及英伟达的支持)正在从事这类研究。这只是我们工作的一个例子。
我认为新的挑战还在于计算机视觉、自然语言处理和机器人技术之间的结合。例如,计算机视觉用于理解环境,自然语言处理用于理解与人类的交互并生成语言,而规划与记忆则用于机器人导航。我认为,将所有不同领域整合到一个单一的深度学习架构中,目前还只是研究阶段,但可能成为许多未来应用和系统的基础,这些系统我们也可以在意大利创建。
总结

本节课中,我们一起学习了意大利CINI人工智能与智能系统实验室的核心信息。我们了解了实验室作为全国性研究网络的结构,其加强研究、促进产学合作、造福社会及协调国内外倡议的多重使命。我们还探讨了实验室通过项目合作和战略建议支持意大利AI发展的具体方式。最后,我们审视了人工智能领域当前面临的主要理论挑战,包括可持续与联邦学习、可解释AI、隐私保护技术以及多模态AI的融合。这些内容为我们理解欧洲,特别是意大利在推动以人为本、负责任的人工智能发展方面的努力提供了重要视角。
025:意大利人工智能战略访谈

概述
在本节课中,我们将学习意大利人工智能专家Emanuela Girardi关于意大利国家人工智能战略的见解。内容涵盖意大利的人工智能发展现状、面临的挑战以及国家战略的核心支柱。
意大利人工智能专家背景介绍

Emanuela Girardi在2018年之前曾为多家国际电信公司工作。
2018年,她创立了“大众人工智能协会”。
该协会研究人工智能对人们日常生活的影响,并提高公众对此的认识。
她是“Claire”和“AI for Hai”组织的成员,同时也是意大利政府人工智能高级别专家组的30名成员之一。
欢迎Emanuela,感谢您与我们分享。
意大利人工智能战略的制定背景
您是意大利30位人工智能高级别专家之一。
2018年4月,欧盟各国签署了《人工智能技术合作宣言》,确定了三个主要合作领域。
第一,促进人工智能研究与创新投资,以推动欧洲公司采用人工智能。
第二,准备应对人工智能技术带来的社会经济变革,特别关注更新教育和培训体系。
第三,确保建立一个符合欧洲价值观和基本权利的法律、伦理和监管框架。
欧盟委员会于2018年12月提出了协调计划,并敦促每个成员国制定国家人工智能战略。
因此,意大利经济发展部从工业界、学术界和民间社会中遴选了30位人工智能专家,请他们根据欧盟委员会设定的优先事项,制定意大利的人工智能战略。
我们于2019年初开始工作,最终战略于2020年7月发布。
意大利的人工智能发展水平
意大利在人工智能方面的准备水平如何?
意大利呈现一种双重局面。
一方面,我们在学术界拥有卓越的人工智能成就,意大利的科学家和研究人员位居世界前列。
另一方面,我们拥有一些非常成功的人工智能初创公司和几家极具创新性的公司。
但是,如果我们观察人工智能技术的平均采用水平,实际上仍然相当低。
根据米兰理工大学最近一项研究的数据,大约50%的意大利大中型公司已经实施了人工智能项目,另有40%的公司宣布计划在今年实施。
因此,目前意大利的人工智能市场总额约为3亿欧元,主要投资方向是智能数据处理、聊天机器人和虚拟系统项目。
然而,主要的挑战仍然是将人工智能技术引入中小微企业,它们构成了意大利商业体系的最大部分,但目前缺乏启动这些创新技术所需的专业知识。
因此,我相信,支持意大利公司开发人工智能项目是提高意大利企业竞争力的关键,这应该成为我们政府的首要任务。
战略报告的主要建议
您和其他专家撰写的报告有哪些主要建议?
我们战略的出发点是,仅有人工智能技术是不够的。
我们需要发展一个完整的技术生态系统,这个系统包括:连接性、区块链、用于收集和共享数据的基础设施、用于处理这些数据的超级计算机、内容、数据服务以及整个技术栈。

基于这些重点,我们定义了三个支柱,用以构建意大利人工智能技术的发展和人工智能政策。
第一个支柱是 “以人为本的人工智能”。

第二个支柱是 “构建可信赖、高生产力的数字生态系统的人工智能”。
第三个支柱是 “促进可持续发展的人工智能”。
三大战略支柱详解
上一节我们介绍了战略的三大支柱,本节我们来详细看看每个支柱的内涵。
首先是第一个支柱。
第一个支柱与欧洲战略完全一致,我们需要推广人工智能技术的应用,以提高全体人口的福祉。
因此,意大利的人工智能战略旨在教育公民、用户、消费者和劳动者,为他们提供使用人工智能技术所需的必要技能。
这需要让人们一方面能够享受人工智能的巨大益处,另一方面能够管理风险,并能够积极参与新的数字社会。
接下来是第二个支柱。
第二个支柱同样与欧洲战略一致,旨在与大学、研究中心、公司、公共管理部门和公民共同构建一个信任与卓越的生态系统。
具体而言,该战略强调了发展数据经济,并以安全、竞争的方式支持中小企业收集、存储和共享其数据的必要性。
最后是第三个支柱。
第三个支柱是关于人工智能促进可持续发展,这确实是最具创新性的部分。
意大利的愿景是,以人为本的变革性人工智能方法绝对是根本性的方法,但这还不够。
因此,我们必须利用人工智能技术来实现联合国《2030年议程》的可持续发展目标。
我相信,在人工智能技术的支持下,我们可以实现“不让任何人掉队”的最终目标。


总结
本节课中,我们一起学习了意大利人工智能专家Emanuela Girardi分享的意大利国家人工智能战略。我们了解了意大利在人工智能领域“学术卓越”与“产业应用不足”并存的双重现状,以及该国战略围绕 “以人为本”、“构建可信数字生态” 和 “促进可持续发展” 三大支柱所制定的具体路径。该战略强调技术、生态系统与社会目标的结合,旨在全面提升国家竞争力并确保包容性发展。
人工智能概述专项课程:第26讲:访谈 - Nicolò Cesa-Bianchi教授

在本节课中,我们将跟随米兰理工大学的Nicolò Cesa-Bianchi教授,了解欧洲人工智能研究的重要机构——欧洲学习与智能系统实验室。我们将探讨其使命、核心活动以及如何助力欧洲在人工智能领域的发展。

概述
Nicolò Cesa-Bianchi是意大利米兰大学的计算机科学教授。他的主要研究方向是机器学习算法的设计与分析。他是《预测、学习与博弈》以及《随机与非随机多臂老丨虎丨机问题的遗憾分析》两部专著的合著者。他曾担任计算学习协会主席,并主持过NeurIPS和COLT等顶级会议的程序委员会。他获得了谷歌研究奖、Exceles基金会奖、CURET奖和谷歌聚焦研究奖。他是ELLIS院士,并担任ELLIS人本学习与内部表征项目的联合主任。
欢迎,Nicolò,感谢您的到来。您是ELLIS院士。那么,ELLIS是什么?😊
什么是ELLIS?🤔
ELLIS是欧洲学习与智能系统实验室的缩写。它是一个欧洲自下而上发起的人工智能倡议,专注于科学卓越、创新和社会影响力。ELLIS建立在机器学习的基础上,而机器学习是现代人工智能的主要驱动力。当今世界人工智能几乎所有戏剧性的进展和影响都由机器学习推动。ELLIS着眼于新一代有才华的年轻学生,他们将帮助我们利用深度学习、强化学习、因果推断等机器学习技术来推动该领域的发展。

ELLIS开展哪些活动?📋
ELLIS基于一个三支柱战略,目标是维持和促进欧洲在人工智能领域的技术主导地位。这三个支柱将帮助我们投资现有人才、培养新人才,并建立一个卓越的欧洲创新生态系统网络。
以下是三大支柱的具体内容:
-
研究计划:第一支柱围绕13个ELLIS计划构建,主题涵盖从理论和算法的基础研究,到健康与气候科学的应用,以及人工智能的人本元素。在这些计划框架内,会组织专题研讨会、暑期学校以及其他科学与教育活动。
-
博士培养计划:第二支柱通过ELLIS博士计划吸引并连接欧洲最优秀的博士生。该计划为希望在机器学习及相关领域进行前沿研究的年轻人才提供了丰富选择。候选人可以依托ELLIS院士网络选择心仪的导师。博士生和博士后在其导师所在机构进行研究,但也必须在网络内的另一个不同地点进行至少六个月的交流。为了融入当地生态系统,该计划也鼓励学生在欧洲公司和初创企业实习。该计划的首轮申请吸引了来自全球的800多名学生。
-
研究单元网络:第三支柱是一个由ELLIS单元组成的网络,这些单元或设立于欧洲顶尖的现有机构内,或是全新创建。ELLIS的目标不仅仅是建立一个机构间的虚拟网络,更是为杰出的研究人员创造新的工作环境,使他们能够将前沿研究与初创企业的创立和产业影响力结合起来。作为实现这一目标的垫脚石,ELLIS通过由国际评选委员会仔细评审的提案征集,开始建立规模较小的ELLIS单元。这些单元汇聚了最优秀的人工智能研究人员,并满足一系列确保卓越性和国际层面最大竞争力的标准。截至目前,已有30个ELLIS单元,每个单元的年预算至少为150万欧元。
ELLIS如何促进欧洲AI技术的发展?🚀
在留住欧洲机构的顶尖人才方面,欧洲正面临重大障碍:缺乏有竞争力的薪酬、僵化的环境不支持与产业的灵活互动,以及由于“卓越孤岛”的分散局面而缺乏临界质量。ELLIS旨在解决这些问题,目标是在欧洲进行最好的基础研究,吸引顶尖的国际产业研究实验室,并孵化未来将成为主要参与者的初创公司。
ELLIS希望成为该领域世界一流的培训场所,与大学合作,努力将最优秀的毕业生留在ELLIS体系内,将他们培养成下一代资深科学家。这意味着欧洲将能够在当前正在进行的科学和社会革命中发挥重要作用。第一次和第二次工业革命不仅改变了技术,也带来了根本性的社会变革,这些变革是在欧洲民主和价值观的框架下管理的。当前的革命可能同样意义重大,欧洲应从中受益,欧洲的价值观应有助于塑造其影响。
当今AI面临的主要挑战是什么?⚡

人工智能面临的主要挑战之一是要做到可理解、数据高效且可信赖。新的人工智能必须能够与环境、人类以及其他人工智能进行交互。它们必须在信息稀缺和不确定的情况下,在高度非平稳的环境中做到这一点。为了辅助人类活动,人工智能应该理解人类,并被人类所理解。这些都是复杂的目标,应通过整合所有可用技术来实现,从数据驱动的方法到知识驱动的方法。
总结

本节课中,我们一起学习了欧洲学习与智能系统实验室的核心信息。我们了解到ELLIS是一个旨在通过卓越研究、人才培养和生态系统建设来巩固欧洲AI领导地位的组织。其三大支柱——研究计划、博士培养计划和单元网络——共同构成了一个全面的人才培养与创新体系。最后,Nicolò Cesa-Bianchi教授指出了当前AI发展面临的核心挑战:构建可理解、数据高效且可信赖的智能系统,这需要融合数据驱动与知识驱动等多种技术路径。
人工智能概述专项课程:P27:访谈 - Claire 介绍
在本节课中,我们将了解欧洲人工智能研究实验室联合会(Claire)的概况、目标、活动及其对欧洲人工智能发展的贡献。
Claire 简介
Jacomo 教授是圣扎大学计算机控制与管理工程系的计算机工程与科学全职教授。他的研究主题是知识表示与自动推理。他是 WA 会士、Hishan 会士和 AI 会士。
欢迎 Jacomo 教授。感谢您参与访谈。首先,什么是 Claire?
非常感谢。Claire 代表 欧洲人工智能研究实验室联合会。它是一个广泛的泛欧洲人工智能实验室网络,旨在加强欧洲在人工智能研究与创新方面的卓越性。
Claire 的建立部分受到了 CEN 极其成功模式的启发。在该模式下,研究活动依赖于欧洲众多实验室的分布式协作努力。它们共同定义研究问题,讨论解决方法,然后协作开展实验并发布成果。
Claire 倡议最显著的特点之一是,绝大多数 AI 会士,包括我本人在内,都支持这一倡议。AI 会士是由欧洲人工智能协会认可的杰出科学家。
Claire 的主要活动与原则
Claire 开展了众多活动,在此我将重点阐述其核心理念。

Claire 相信,人工智能将从根本上改变我们的生活和工作方式,并将在应对社会重大挑战(如气候、能源、交通、食品、自然资源、健康以及包容与安全的社会)方面变得至关重要。

Claire 认为人工智能是全球游戏规则的改变者,已成为创新、未来增长和竞争力的主要驱动力。Claire 的愿景是,欧洲凭借其在人工智能所有领域的现有优势、强大的大学、研究机构和公司,处于推进人工智能发展的绝佳位置。欧洲可以确保许多更先进的技术、产品、系统和服务反映欧洲的需求和民主价值观。
Claire 专注于发展 可信任的人工智能,这种人工智能与人类智能兼容并增强之,而非取代。
Claire 致力于大幅增加对现有人工智能科学优势及其他研究机会的资金支持。
Claire 与关键利益相关者合作,寻找公民参与、产业界与公共部门协作的机制。
Claire 定义并应对跨广泛应用领域的价值导向挑战,包括健康、制造、交通、科学研究、可持续农业、金融服务、公共管理和娱乐。
Claire 对欧洲人工智能技术发展的贡献
Claire 通过多种方式为欧洲人工智能技术的发展做出贡献。
以下是其主要贡献领域:
- 支持广泛的应用研究:Claire 支持有望在广泛应用领域产生重大短期、中期和长期影响的研究,包括高效安全的交通、先进医疗、智能工业、高效可持续农业、加速科学研究、下一代学习与教育等。
- 关注社会影响:Claire 开展的人工智能研究旨在解决有关人工智能社会影响的一些开放性问题,例如公平性、透明度、可解释性和价值对齐。其明确重点是构建对人类有益的、可信任的人工智能。
- 吸引与培养人才:Claire 支持为硕士生、博士生和博士后研究员提供有吸引力的奖学金,并通过高效、轻量但坚实的科学评审,支持杰出的初级、中级和高级研究员。目标是吸引全球最优秀的人才来到欧洲。
- 促进合作与交流:Claire 旨在阻止当前的人才流失趋势,并吸引最优秀的人才。它为所有资历层次、所有人工智能领域的研究人员提供大量支持,以促进交流与互动。
- 支持高质量教育项目:Claire 支持开发和运行专注于人工智能的高质量学习项目。
- 保障学术自由:Claire 认为研究人员需要享有充分的学术自由,研究他们感兴趣的任何课题。正如过去经常发生的那样,最重要的成果往往来自那些被认为边缘化、没有期望产出成果的领域,但它们最终改变了世界。
- 促进科学讨论与政策制定:Claire 促进科学讨论,为聚焦和协调欧洲人工智能研究提供独特的机会和力量,同时为制定产业、国家政策和公众指南提供坚实平台。
当前人工智能面临的主要挑战
人工智能面临诸多挑战,但我希望聚焦于一个:构建能够在现实世界(可能是在受控环境如智能工厂中)行动的系统。

这些系统能够做出明智决策,理解其交互的后果,并据此行动。换句话说,系统能够以可控且可理解的方式自行编程。
然而,这涉及人工智能的多个子学科,包括:
- 知识表示
- 规划
- 自主智能体
- 逻辑推理
- 概率推理
- 机器学习
这也与一个称为 形式化方法 的计算机科学领域相关,该领域研究自动验证程序的技术。这些技术确实可用于分析程序,也可用于自动合成程序。自动程序合成与这种自我编程密切相关。
此外,我们必须考虑到,这些系统本质上是超级高效的优化器。这种超级优化可能成为问题,尤其是在系统优化的目标未被完全理解的情况下(大多数人类事务即是如此)。结果是,这个超级优化器可能变成一种狂热者,为了达成我们设定的目标而做出超出我们预期的事情。我们人类从历史中知道,狂热者从未带来过好处。
关于这个问题有很多可以讨论,Stuart Russell 所著的《Human Compatible》一书就完全专注于探讨此议题,这是一本非常值得推荐的读物。
总结

本节课中,我们一起学习了欧洲人工智能研究实验室联合会(Claire)的基本情况。我们了解到 Claire 是一个旨在加强欧洲 AI 研究实力的协作网络,其核心原则是发展以人为本、可信任的人工智能。Claire 通过支持广泛的应用研究、关注社会影响、吸引培养人才、促进合作交流以及保障学术自由等方式,推动欧洲人工智能的发展。最后,我们探讨了当前 AI 面临的一个关键挑战:构建能在现实世界中安全、可靠地自主行动与决策的系统,这需要多学科协同并警惕超级优化可能带来的风险。
028:课程介绍 🧠

在本课程中,我们将探讨人工智能技术带来的伦理挑战,并学习如何通过系统性的伦理反思来分析和应对这些问题。
人工智能有望彻底改变我们的世界。在某种意义上,我们已经生活在一个被人工智能的出现所改变的世界中。
由人工智能驱动的自动化决策系统如何影响人类的决策?那些被收集个人数据并用于各种推荐系统进行监控的人,其自主性又如何?隐私为何不仅作为个人利益,也作为公共利益而重要?人工智能设计者应承担何种道德责任,不仅要避免技术的负面影响,还要促进其正面影响?如果自主系统(无论是武器还是车辆)被设计来决定人的生死,那么人的尊严何在?这些工具对治理概念有何影响,算法治理对个人和社会又会产生何种效应?随着人工智能的出现,可持续性这一概念本身是如何被重塑的?公平、平等和正义应如何被纳入这些人工智能系统,又应如何由它们来管理?
这些问题将在本课程中讨论。更准确地说,我们将分析人工智能在设计、开发和使用过程中的伦理问题。
我将担任你们的讲师。我的名字是维奥·卡弗纳蒂,我是米兰理工大学的哲学教授。
人工智能的力量不仅在于其巨大的计算能力,还在于前所未有的数据收集能力。此外,人工智能技术无处不在并被广泛接受。许多新的机遇正在涌现,其前景是加速科学发展和推动创新。与此同时,许多人感到担忧,认为新的问题正在出现。
因此,如果说人工智能解决了旧问题,那么同样真实的是,它也引发了新的问题。在这种背景下,需要一种范式的转变,因为人工智能技术影响着个人生活和社会。
技术不能是唯一的焦点,必须纳入更广阔的视角,而伦理分析可以在此发挥重要作用。

但什么是伦理学?伦理学很难一言以蔽之。我们可以说,伦理学是对何为道德的系统性反思。在这个意义上,伦理学是哲学的一个分支,而道德则是人们(个体或集体)借以表达他们认为何为善或对的意见、决定和行动的总和。
重要的是要记住,伦理学不是一套规则。换句话说,伦理学不是一本提供答案的手册,也不是一份核对清单。相反,伦理学是一个过程,而且确实是一个复杂的过程。它反思与人们所做的道德选择相关的问题和论点,因此,它不能一劳永逸地被确定。
在本课程中,我们将考虑多个实例和案例研究。同时,我们将介绍主要的伦理框架,这些框架可以帮助塑造这些问题并提出可能的解决方案。

在本节课中,我们一起学习了人工智能伦理课程的基本介绍。我们探讨了人工智能带来的核心伦理问题,理解了伦理学的定义及其与道德的区别,并明确了本课程将结合案例与理论框架来分析这些问题。
029:责任概念


在本节课中,我们将要学习人工智能伦理的核心概念——责任。我们将探讨责任的一般定义、不同类型,以及它在技术伦理,特别是人工智能领域中的具体应用。课程将分为被动责任与主动责任两部分进行详细讲解。
人工智能伦理与责任概念紧密相连。人工智能是一项强大的技术。每当出现问题,谁应为此负责的问题便会迅速浮现。此外,随着本课程后续内容的展开,我们将看到,当人工智能这类人工系统拥有越来越高的自主性和决策权时,责任这一概念本身也需要被重新审视。

那么,责任是什么?一般而言,责任意味着对我们的行为及其后果负责。此外,责任通常与我们在一特定情境中所扮演的角色相关联。
责任的类型 🧩
上一节我们介绍了责任的基本概念,本节中我们来看看责任的不同类型。

这被称为角色责任。人们在生活中扮演不同角色,因此承担着各种责任,例如为人父母的责任,或是合同中规定的责任。因此我们可以说,角色定义了责任。

然而,道德责任并不局限于这些角色,其范围更广。一般而言,我们可以说,道德责任是基于道德考量所产生的义务、规范和职责的责任。
职业责任则是基于个人作为专业人士的角色而产生的责任,前提是其行为在道德允许的范围内。
在技术伦理中,责任可以被理解为被动责任和主动责任。
被动责任 🔍
理解了责任的基本类型后,我们首先深入探讨被动责任。

当发生不良事件时,适用被动责任。主动责任则适用于事件发生之前。
我们先讨论被动责任。被动责任是一种向后看的责任形式,在不良事件发生后适用。例如,当一辆自动驾驶汽车发生碰撞时,很自然地会问:谁该为此负责?是车主、设计者,还是将其商业化的公司?
在评估责任时,有两个要素至关重要。第一个是可说明性。被追究责任的人必须能够说明其选择,例如他/她为何做出某些决定。第二个要素是应受责备性,即被追究责任的人必须是责备的恰当对象。
让我们进一步分析应受责备性。通常,要使某人应受责备,需要满足一些条件。
以下是判断应受责备性的四个条件:
- 不当行为:要责备一个人或机构,必须证明他们做了错事。例如,一个软件工程师团队没有对自动驾驶汽车中的物体识别系统软件进行充分测试。
- 因果贡献:被追究责任的人必须对其负责的行为做出了因果贡献。因果贡献不仅指行动,也包括未能行动。例如,如果软件工程师团队未能阻止公司在未对物体识别系统进行适当测试的情况下将车辆商业化,那么他们就对碰撞事故做出了因果贡献。
- 可预见性:要承担责任,我们必须能够知道行动的后果。例如,软件工程师团队必须知道,没有适当的测试,自动驾驶汽车的物体识别系统可能导致不可避免的碰撞。
- 行动自由:要被追究责任,我们必须有行动自由,即没有受到强迫。软件工程师团队的案例表明他们显然有行动自由,他们并非身处监狱,即使可能承受来自公司的高压,但这种压力很可能不足以说他们缺乏行动自由。
主动责任 🚀
讨论了事件发生后的归责问题后,现在我们转向事件发生前应承担的责任,即主动责任。
主动责任适用于事件发生之前。主动责任意味着采取行动以防止技术的负面影响,同时也致力于实现一些积极后果。因此,很明显,主动责任在像人工智能这样对人类和社会有重大影响的技术设计中起着关键作用。
主动责任可以转化为一种技术(尤其是人工智能技术)的设计方法。这意味着在设计阶段之初就考虑价值和道德因素,以便将它们嵌入技术本身。例如,在设计自动驾驶汽车时,通过车辆设计本身来保证用户隐私的保护,就是这种情况。
价值敏感设计是在应用于技术设计的主动责任框架内发展起来的方法之一。在价值敏感设计中,道德考量和价值被用作技术设计的需求。
技术发展的引导与挑战 ⚖️
了解了将伦理融入设计的理念后,我们来看看在实践中面临的挑战。

引导技术发展的可能性非常重要。然而,有两个主要问题需要考虑。
以下是引导技术发展面临的两个核心挑战:

- 多方参与者:技术发展涉及大量行动者和利益相关者,他们的利益可能相互冲突,且从道德角度不容忽视。
- 预测困难:预测技术发展过程本身存在困难。这对于人工智能这样强大且新兴的技术来说尤为严峻。


为了应对这些困难,已经发展出多种方法,但必须强调的是,每个案例都需要特别关注和细致的细节分析。


本节课中,我们一起学习了人工智能伦理中的责任概念。我们明确了责任的一般含义,区分了角色责任、道德责任与职业责任。重点探讨了技术伦理中的被动责任(事后归责,涉及可说明性、应受责备性及其四个条件)和主动责任(事前预防,通过价值敏感设计将伦理嵌入技术)。最后,我们认识到引导像人工智能这样的技术发展面临多方利益协调和未来难以预测的挑战,需要针对具体案例进行审慎分析。理解这些是负责任地开发与应用人工智能的基础。
030:自动驾驶汽车的伦理问题 🚗

在本节课中,我们将以自动驾驶汽车为例,探讨人工智能引发的核心伦理问题,并学习如何运用不同的伦理框架来分析这些问题。
什么是“自主性”?🤔
上一节我们引入了课程主题,本节中我们来看看“自主性”在自动驾驶领域的含义。这里我们使用“操作自主性”这一术语,来描述一个系统无需人类持续监督即可执行任务的能力。这意味着系统能够适应动态环境和意外情况。

对于自动驾驶汽车,这种部分自主性的概念可以转化为一个框架,该框架规定了五个不同的自主级别:
- 级别1:基础功能(如加速)实现自动化。
- 级别5:车辆在任何条件下都完全自主,无需人类干预。
自动驾驶的利与弊 ⚖️
了解了自主性的定义后,我们来看看发展自动驾驶技术的道德考量。以下是支持发展自动驾驶汽车的主要理由:
- 提高交通安全,显著减少事故。实际上,自动驾驶汽车在遵守现有法律方面优于人类,它们不会疲劳、醉酒或分心。
- 增加无法驾驶的人群(如老年人)的自主行动能力。
- 提高交通效率,从而减少污染。

与此同时,自动驾驶汽车的发展也带来了一些威胁:
- 对个人隐私和自由的潜在影响。
- 责任归属的难题。
不可避免的碰撞与道德选择 🚨
在讨论了利弊之后,我们聚焦于一个能集中体现伦理困境的场景:不可避免的碰撞。这是一种车辆无法避免与障碍物发生碰撞的情况。虽然这种情况不理想,但无法完全排除。
因此,在不可避免的碰撞中,我们不仅将停车等操作委托给自动驾驶汽车,还将一些道德选择权交给了它。例如,自动驾驶汽车可以选择碰撞角度,以最大化保护车内乘客。
让我们设想两个不同的场景:
场景一:两名骑行者正以与自动驾驶汽车垂直的方向横穿马路。一名佩戴了头盔,另一名没有。车辆无法避免与其中一人相撞,但仍有时间选择撞向谁。车辆应如何决策?
场景二:自动驾驶汽车前方有两名行人正在过马路。此时有两种可能:要么撞向行人,要么急转弯避开行人,但这可能导致车内乘客受重伤。
基于后果的伦理分析 📊
现在,我们尝试根据不同的伦理框架来分析这些问题。首先是后果论,也称为结果伦理学。😊
根据后果论,决策和行为的道德好坏取决于它们带来的后果。那么,什么是道德上“好”或“坏”的后果呢?这里可以使用不同的标准。例如,一个标准是所谓的效用原则,它是功利主义伦理框架的基础。😊
因此,根据功利主义者的观点,应该选择能为最大多数人带来最大幸福的行为。😊
总的来说,我们可以说,将后果论应用于自动驾驶汽车在不可避免事故中的决策,意味着要以公正的方式最小化损害。
然而,当我们试图深入分析前面勾勒的不同场景细节时,问题就出现了。😊
例如,为了最小化场景一(骑行者场景)中涉及人员的损害,车辆应被编程为撞向佩戴头盔的骑行者,因为他受到更多保护,可能遭受的后果更轻。这当然颇具争议,但如果我们从纯粹的后果论角度(目标是最小化预期损害)来考虑这个问题,就会得出这样的结论。
基于义务的伦理分析 📜
接下来,我们尝试在另一种伦理框架——义务论——下分析自动驾驶汽车的伦理问题。

义务论,也称为道义论伦理学,这类伦理方法认为,如果一个行为符合特定的道德规则,那么它在道德上就是正确的。😊
这些规则可以有不同的来源:
- 它们可以诉诸相关方默示同意的社会契约,例如公司行为准则。
- 或者基于合理的论证。例如,设想一位家长每天使用自动驾驶汽车送孩子上学。


对于这位家长而言,保障女儿的安全是一项义务,而且这项义务的重要性独立于对可能后果的评估。我们能否设计自动驾驶汽车,使其在任何其他考量下都优先保障孩子的安全?
要回答这个问题,即使在义务论的框架内,也会出现许多问题,例如其他道路使用者的权利,以及这种选择可能引发的社会紧张关系。
责任归属与政策制定 🏛️
在讨论自动驾驶汽车的伦理问题时,责任归属问题也至关重要:当造成人员或财物损害时,谁应负责?是生产汽车的公司、设计它的工程师,还是车主?
这个问题尤其难以回答,因为这些主体中没有一个对自动驾驶汽车拥有直接和完全的控制权。文献中讨论了几种解决方案,它们取决于许多因素,也包括所采用的伦理框架。
显然,填补伦理分析所产生的政策真空,是在我们的社会中发展和应用自动驾驶汽车的关键要素。
这里出现了另一个重要问题:如何将伦理分析转化为具体的政策。一个有趣的例子是德国联邦交通和数字基础设施部在2016年任命的伦理委员会。一年后,该委员会发布了一份包含20条指导方针的行为准则,其中混合了来自不同伦理框架的规则:
- 来自义务论的规则:例如禁止基于性别和其他个人特征进行歧视。
- 来自后果论的规则:例如致力于最小化风险的设计方法。
总结 📝
本节课中我们一起学习了自动驾驶汽车引发的伦理挑战。我们看到,伦理学并不能一劳永逸地解决自动驾驶汽车发展和应用所引发的问题。相反,伦理学让我们能更好地理解其中的困难所在。😊

但这并不意味着伦理学无用。恰恰相反,伦理学是我们以有意义的方式决定道德问题的最佳工具。🎼
031:自主武器系统与冲突数字化

在本节课中,我们将要学习自主武器系统及其引发的伦理问题。我们将探讨自主武器的定义、分类、开发动机,并深入分析从道义论和后果主义两种伦理视角出发的辩论。课程最后将讨论“有意义的人类控制”这一核心概念。
自主武器系统概述
自主武器系统提出了与自动驾驶汽车相似但又有所区别的伦理问题。
通常,当一个武器系统具备导航、侦察和攻击能力,且无需持续的人类监督时,我们就可以称其为自主武器系统。

自主武器系统可以分为不同类别,例如空中系统、用于巡逻的机器人哨兵、用于攻击和摧毁目标的游荡弹药系统。
应用于武器系统的“自主性”定义至关重要,它会随着该领域的技术发展而不断演变。例如,近年来开发的武器系统利用了群体智能,即大量小型、廉价的自主武器系统协同合作以完成复杂任务。
开发自主武器的动机
那么,设计和使用自主武器系统的原因是什么?我们可以从行动、经济和战略三个层面来区分。
以下是三个主要原因:
- 行动原因:例如,没有飞行员的自主无人机,其反应速度比由数千英里外战场上的飞行员操作的无人机更快。
- 经济原因:自主武器系统比传统武器需要更少的人力操作员,从而降低了行动成本。
- 战略原因:这些系统在增强军事力量和改变地缘政治关系方面扮演着战略角色。
自主武器与传统武器的关键区别
理解传统武器系统(如远程操控的无人机)与自主武器系统(如利用人工智能技术自主选择和攻击目标的无人机)之间的区别非常重要。
强调这种区别对于聚焦自主武器系统引发的伦理问题至关重要。

传统无人机由人类操作员控制,即使他们距离无人机非常遥远。而自主武器则被编程为以自主方式决定攻击。
换句话说,对于无人机,指挥与控制链得以保留,责任至少在原则上总能归因于人类。而在自主武器系统中,这种人类控制并未保留,某些攻击决定可以由武器系统以部分独立于人类操作员的方式做出。
关于自主武器的伦理辩论
在当前关于自主武器系统道德问题的辩论中,人们讨论了开发和使用它们的利弊。
机器人专家罗纳德·阿金(Ronald Arkin)支持这些系统。他强调在此背景下,人工系统不受自我保存需求和人类典型情绪反应的影响。根据阿金的观点,这些系统的设计应遵守规范战争环境的国际准则。

相反,机器人专家诺埃尔·夏基(Noel Sharkey)认为,目前没有任何证据表明自主武器系统能更好地遵守这些国际准则。此外,这些自主武器之间的互动很难预测,并且速度太快,难以受到人类控制。
夏基为2012年发起的“停止杀手机器人”运动做出了重要贡献,该运动旨在禁止能够在没有任何人类干预的情况下攻击目标的自主武器系统。

各方立场差异很大。例如,在2021年3月的一份文件中,美国人工智能国家安全委员会宣布,该委员会不支持全球禁止人工智能赋能和自主武器系统。
道义论视角下的辩论
现在,让我们在道义论(也称为义务论)的背景下考虑关于自主武器系统的辩论。道义论是伦理学中的一类方法,认为一个行为如果符合特定的道德规则,就是道德上正确的。

根据义务伦理,这些自主武器威胁到对一些基本义务的尊重,例如尊重国际人道法、保持责任链,以及在战争情境中考虑相关人员的尊严。
尊重尊严要求,任何关于人类生死的决定,只应由其他能够感受同理心并理解人类生命价值的人类做出。
为了尊重国际人道法,相称性原则扮演着非常重要的角色。该原则指的是军事攻击应仅限于那些破坏能带来军事优势的目标。
正确应用此原则的一个主要因素是能够区分在战争情境中活跃的主体和那些已丧失战斗力并表现出投降意图的敌人。
一个人工系统如何可能识别出表达投降意图的士兵的行为?实际上,这种意图可能以许多不同且非传统的方式表达。
如何避免人工系统典型的感知错误?这些错误在人类情况下本可以通过常识轻易克服。

这些问题目前没有任何令人满意的答案。特别是当我们考虑到军事环境是不可预测且变化多端的。
责任归属的难题

现在让我们看看,要维持国际人道法所要求的责任链是多么复杂。
假设一个自主武器系统由于某些感知错误,将一辆校车误认为军事目标并发起攻击。
在这种情况下,谁应该被视为道德上负有责任?不是自主系统本身,因为它不是一个道德主体。

责任应归因于参与启动武器系统的人员,例如设计该自主系统的计算机和机器人工程师、制造该产品的公司经理、决定购买该自主武器系统的政客、制定采购计划的国防部顾问和雇员、违反使用说明的军事人员、军事行动的总指挥官,或负责监督该系统的士兵。
从这个长长的列表中可以看出,这些主体中没有一个对事故做出了重大贡献,我们在这里可以观察到责任归属的空白,这当然是一个道德问题。
后果主义视角下的辩论
现在让我们在后果主义的背景下考虑关于自主武器系统的辩论。根据后果主义,决策和行动根据其带来的后果被评价为道德上的好或坏。
如果说义务论主要提出了反对使用自主武器系统的论点,那么后果主义则同时提供了支持和反对的论点。
以下是支持自主武器系统的三个主要论点:
- 自主武器系统可以保证攻击军事目标时具有更好的精确性。
- 它们可以用来替代人类,以减少人员伤亡并保证对现有法律的尊重。
- 这些武器可以被编程为仅在敌人的攻击意图非常明确的情况下才进行攻击。
这里的一个问题是,评估采用这些武器的后果时,不仅要考虑单个战场,还要考虑那些并不总是容易预测的长期后果。
例如,一个合理的后果可能是冲突速度的加快,以至于这可能变得与人类的反应速度不相容。
其他一些应考虑的长期后果包括与安全漏洞和可能的恶意软件相关的风险,或者地缘政治格局可能发生的变化。
有意义的人类控制
根据我们目前所看到的,一个主要因素是根据战争场景中典型的不确定性元素,重新考虑责任的概念。

在此背景下,“有意义的人类控制”这一概念近年来被提出,作为负责任地使用自主武器系统的必要条件。
“有意义”在这里意味着人类控制者必须有足够的信息和时间来干预自主系统。
具体说明在此背景下“有意义”的真正含义并不容易,这个问题在当前的辩论中仍然悬而未决。
然而,关注这一点具有将注意力从定义问题(什么是自主武器系统)转向监管问题(对于其他武器系统,应采用何种人类控制)的优点。
对这些规范性问题的讨论,也影响着关于可为自主武器系统的开发和使用采取的伦理政策的辩论。
总结


在本节课中,我们一起学习了自主武器系统的基本概念、其开发动机以及与自动驾驶汽车伦理问题的异同。我们深入探讨了自主武器与传统武器的关键区别,并从道义论和后果主义两种伦理框架分析了支持和反对自主武器的论点。最后,我们认识到“有意义的人类控制”是当前辩论的核心,它试图在技术自主性与人类道德责任之间建立必要的联系,以应对战争数字化带来的复杂伦理挑战。
032:数字医学 🏥

在本节课中,我们将要学习数字医学的基本概念、主要应用领域以及伴随其发展而产生的关键伦理挑战。数字医学正利用信息技术和人工智能重塑医疗健康领域。
许多我们今天的活动都由信息技术塑造和赋能。特别是,决策过程正越来越多地得到人工智能工具的支持,这些工具使用大数据作为开发AI算法的原材料。
在此背景下,从道德角度考虑在医学乃至所有涉及人类健康的领域中使用人工智能,尤其具有挑战性。确实,这里产生了许多问题,从根据国际卫生组织的政策制定指导方针,到与透明度、可信度、AI算法与数据以及隐私保护相关的关键问题。
数字健康和数字医学可以有多种定义方式。无论如何,主要存在四个应用领域:健康监测过程、辅助诊断的工具、用于治疗的预测算法的应用,以及在公共卫生背景下的应用。
以下是数字医学的四个主要应用领域:
- 健康监测:例如,如今智能手表和手机应用常被用来追踪我们的身体活动,并通过地理定位传感器以及分析用户与这些设备的互动来监测健康状况。
- 辅助生活:例如,在家中安装工具,不仅用于监测居民(主要是老年人)的健康状况,还能激励他们改善身体和社交活动。
- 辅助诊断:机器学习算法在分析临床和放射学图像方面非常高效,有时甚至优于人类。这些结果表明了以高效方式自动化诊断过程的可能性。
- 公共卫生:目标是提高诊断准确性,减轻专家的工作量,并潜在地扩大预防政策所能覆盖的人群数量。
与此同时,许多伦理问题也随之产生,其中大多数无法用传统的概念框架(如道义论或功利主义)来框定。今天,最具争议的伦理议题有三个。
上一节我们介绍了数字医学的应用领域,本节中我们来看看其面临的三大伦理议题。以下是当前最受关注的三个伦理主题:
- 隐私与数据保护:涉及与个人数据收集、使用相关的议题。
- 机器学习工具的应用:涉及将算法应用于不同医疗领域时产生的公平性、代表性等问题。
- AI算法的透明度:与算法决策过程及结果的可解释性相关。
隐私与数据保护问题 🔒
让我们从隐私和数据保护问题开始。数字医学基于收集、存储、分析和分发大量数据的可能性。这些实践带来了若干困难:首要问题是,必须告知数据被使用的人。为此,开发了诸如知情同意书之类的工具。然而,在大数据时代,这些工具的有效性受到挑战,因为算法可以推断出未在传统知情同意书中明确处理的新信息。
机器学习在医疗中的应用 🤖
接下来,我们看看机器学习算法在医疗背景下的应用。这些算法在大型数据集上进行训练。例如,要开发一个从临床图像诊断乳腺癌的算法,研究人员需要用大量乳腺癌图像和非癌图像来训练算法,以便算法学习哪些颜色、形状、对比度与阳性诊断相关,哪些不相关。最终,算法学习到一些规则,这些规则将被应用于新的临床病例。
为了使算法有效,训练数据应足够代表其将被使用的人群。然而,众所周知,生物医学数据大多代表来自北美和欧洲的白人男性。这是一个严重的问题,风险在于可能进一步损害已经处于不利地位和代表性不足的群体,从而违背公正原则。
AI算法的透明度问题 ⚫️
现在,我们来考虑医疗中AI算法的透明度问题。机器学习算法学习给定数量的变量与预测之间的统计相关性。这些算法不知道学习参数为何相关,程序员也不知道。换句话说,只能发现参数之间的相关性,而非因果关系。此外,在大多数情况下,甚至连程序员也无法知道算法学习了哪些规则。这就是算法被称为“黑箱”的原因。它们不透明,即使可能非常准确。
当AI工具应用于医学时,缺乏透明度会引发问题。例如,采用此类工具是否与医生的一项职责相容?医生应了解所采用工具和方法后再行动。此外,医生是否有责任告知患者使用了一个其功能无法完全解释的算法?这种透明度的缺乏是否会影响责任,不仅从道德角度,也从法律角度?
尽管采用了《欧洲通用数据保护条例》(GDPR),该条例规定患者有权拒绝完全自动化的决策,但关于这些问题的辩论仍然非常开放。例如,尚未就医疗背景下黑箱算法的伦理使用提出具体建议。迄今为止,大多数指导方针和原则仍停留在非常抽象的层面。
一些重要机构,如经济合作与发展组织和世界卫生组织,已经提供了更具体的建议:不仅要保护隐私,还应最大限度地减少在医学中采用AI工具带来的负面后果。此外,数字解决方案应被视为支持传统临床实践,而非取代它们。最后,应始终保证人类对这些医疗活动的控制。
本节课中我们一起学习了数字医学。数字医学已经在革新医疗实践和医学观念。人工智能驱动的工具似乎有望处理日益增长的医疗数据,其预测和分类能力受到重视,即使因果解释常常被忽略。预测与可解释性之间的对立,或者说相关性与因果关系之间的对立,仍然悬而未决。

这告诉我们,数字医学的未来应严格与将医学视为一种共享社会实践的观点联系起来,在这种实践中,患者的权利必须从临床和伦理角度得到保护。
033:可持续性与环境影响 🌱

在本节课中,我们将探讨人工智能与数字技术的环境可持续性。我们将了解其带来的机遇与挑战,分析评估其环境影响时面临的复杂性,并讨论其中涉及的伦理与社会价值问题。
数字技术与可持续发展的双重性
上一节我们介绍了人工智能的社会影响,本节中我们来看看其与环境的关系。人工智能与数字技术的环境可持续性在当今尚未得到充分讨论。
一方面,数字技术可能代表着实现可持续发展的机遇。例如,使用智能电网来更好地管理能源消耗。
另一方面,从环境和社会角度来看,处理和计算大量数据以及处置数字设备会产生巨大的影响。
可持续发展的核心概念
可持续概念的核心在于,当代与未来世代的福祉、生态系统和人口在全球范围内是相互关联的。
联合国设定了可持续发展目标,旨在2030年前实现可持续性。联合国认识到,数字革命可以在实现可持续发展目标中发挥关键作用。
以下是数字技术助力可持续发展的一个例子:
- 应对气候变化的行动可以通过使用卫星数据追踪森林砍伐来支持。
然而,也存在一种风险,即可用数据可能无法代表所有群体,特别是那些难以接触数字技术的群体。因此,总的来说,我们可以说可持续性与信息社会之间的关系是矛盾的。
评估数字技术环境影响的挑战
评估数字技术,特别是人工智能的环境影响并非易事,其中存在多个不确定因素。
数字和人工智能技术具有高能耗的特点。“云”这个比喻——一个没有限制、可以轻松扩展、数据随时可达的缥缈概念——可能具有误导性。
这个比喻可能掩盖了一个事实:云要工作,需要真实的工业基础设施,这些设施占用物理空间、改变城乡环境、消耗能源、排放温室气体,并最终在其生命周期结束时成为垃圾填埋场。
云计算和基于互联网的服务日益增加的使用,对所谓的碳足迹产生了强烈影响。特别是人工智能系统,训练算法需要高水平的能源消耗。
例如,训练一个用于自然语言处理的深度神经网络所产生的温室气体量,几乎是一辆汽车整个生命周期排放量的五倍。
这不仅是一个科学和技术问题,或许更主要的是一个伦理和政治问题。要应对数字污染,我们必须同时考虑定量数据和人类价值,例如在特定背景下产生的不平等问题或不同利益相关者的责任。
评估中的价值考量与伦理困境
让我们考虑在此背景下涉及的一些价值。一种普遍的方法是评估数字活动的成本和收益,以便将气候变暖控制在可接受的限度内。
这种方法符合后果论,在这种情况下,后果论会考虑使用数字技术带来的广泛后果,以最大化收益。这意味着不仅要考虑数字技术的环境影响,还要考虑它们对教育、健康和能源消耗的影响。
然而,这种方法存在几个问题:
- 首先,成本和收益通常全部以货币单位计算,但有些价值无法用这些术语表达。
- 其次,技术的影响有时难以评估并用可测量的数量表示。
- 最后,定义什么是收益或风险并不容易。
要减少数字污染,不仅需要了解其绝对实体(即人工智能技术产生的污染),还需要了解其相对实体(即与环境和社会优势相关的污染水平)。此外,必须考虑所有间接影响。
例如,在家远程办公可能减少汽车使用,但可能增加私人住宅的能源消耗。这些间接影响难以评估。
因此,要确定数字服务的可持续性,重要的是既要考虑其环境影响的数值,也要考虑其社会价值,例如这些服务如何促进获得教育和医疗,或有利于形成一个不平等和歧视较少的社会。
但社会价值难以衡量,也无法以统一的方式确定。它们的重要性可能因不同的背景和人群而异。然而,可持续性是一个巨大的问题,决策也必须在不确定性和信息不完整的情况下做出。
在此背景下,伦理是必要的,以便不仅考虑定量方面,还要考虑道德和社会方面。

利益与损害的公正分配问题
现在,让我们考虑与人工智能技术环境影响相关的利益和损害的公正分配问题。
数据中心对有限的自然资源产生影响,例如它们实际建造所占用的土地,或用于发电的不可再生能源的使用。此外,还会对社会和经济要素产生影响。
一些斯堪的纳维亚城市郊区大型数据中心的存在,给这些地区带来了显著的政治和社会变化。因此,总的来说,与数字空间组织相关的决策必须是透明和民主的,它们必须接受公众监督,而不仅仅是公司的经济决策,因为它们影响到大量人群。
公正性也涉及数字设备的处置问题。这种处置通常位于法规有时得不到遵守的贫穷国家。
例如,在高度污染的处置设施中工作的人可能遭受严重的健康问题。这些因素引发了关于数字革命成本和收益公平分配的问题。
可信赖人工智能与“漂绿”风险
欧盟委员会任命的人工智能高级别专家组将人工智能的环境可持续性列为实现可信赖人工智能需要考虑的标准之一。
正如我们所看到的,衡量和实施环境可持续性并非易事。此外,到目前为止,在此背景下的可持续性目标是一个自愿事项,这降低了其实际影响。
不同的公司宣称要实现碳中和或更好的零净能耗标准,这不仅是对碳排放的补偿,还包括减少碳排放。然而,这些目标在提出时,往往没有明确说明如何在实践中实施。
这就是为什么其中一些倡议被贴上“漂绿”标签的原因。其目的更多是为了积极影响公众舆论,而不是促进真正的积极变革。
总结与展望 🌍
本节课中,我们一起学习了人工智能环境可持续性的多面性。
总而言之,改善数字污染和提高人工智能的可持续性是一个技术、伦理和政治问题,其中必须考虑所涉及的不同价值,以便为一个广泛的治理项目设定共享的道德价值观。

每个个体的责任与公共机构(无论是国家层面还是国际层面)的责任一起,扮演着非常重要的角色。然而,正如我们所看到的,必须用超越“技术进步可以完全解决此问题”这一观念的全球视角来分析这些问题,例如,仅通过改善人工智能系统的能耗是无法完全解决的。
人工智能伦理:第6章:网络安全与人工智能 🔐

在本节课中,我们将探讨网络安全的基本概念及其与人工智能伦理的交叉。我们将了解网络安全的核心目标、其中涉及的伦理维度,以及这些考量在人工智能应用中的具体体现。
网络安全是一个广泛的领域,其内容包括保护个人信息、技术系统以及使用这些系统的人。

网络安全的目标可以用“CIA三元组”来概括:C代表机密性,I代表完整性,A代表可用性。换言之,网络安全旨在确保信息交换时,首先保证机密性,即信息只能被授权访问的人获取;其次保证完整性,即拒绝任何未经授权的信息篡改;最后保证可用性,即信息对授权使用者始终可用,不会出现服务中断。
那么,网络安全的伦理维度是什么?安全与伦理有何关联?
最简单的答案是:未经授权访问系统是错误的。但还有更深层次的内容值得强调。安全影响着秩序。这意味着,无论是技术性还是社会性的安全措施,都在塑造着计算环境。
网络安全还有其他值得考虑的伦理维度。其中一个与责任归属相关:当人类代理需要为他人承担利益和风险时,例如在发生安全漏洞时,谁应负责?如果某人选择不采取措施保护系统免受入侵者攻击,那么当入侵者闯入时,他们是否至少应承担部分责任?
网络安全的另一个伦理维度涉及平衡不同道德价值的问题,而这些价值并非总能同时得到促进。权衡取舍通常是必要的,重要的是在任何情况下确定哪些价值导向了最佳的权衡。例如,一个在完整性方面更好的解决方案(如允许系统管理员监控所有信息)可能会增加机密性方面的风险,因为私人信息暴露给了无权访问的个人。相反,同时保证高度机密性和完整性的解决方案可能非常复杂,以至于降低了系统的可用性,例如需要多重身份验证才能访问系统的情况。由此可见,并非每个解决方案都能保证相同水平的机密性、完整性和信息可用性。
平衡不同价值的问题不仅是个体层面的,也是社会层面的。一个关键问题是:作为一个社会,我们应该允许我们的政府在安全方面做什么?例如,当安全价值与隐私价值发生冲突时。2001年“9·11”事件后美国通过的《爱国者法案》就是一个例子,该法案授予联邦政府更广泛的电子监控权力。2007年,司法部发现联邦调查局在某些情况下不当甚至非法地使用《爱国者法案》来获取个人信息。总的来说,安全不应凌驾于其他价值之上,但同时我们必须承认,安全对于信息社会的平稳可靠运行至关重要。
这里需要认识到,我们没有任何简单的规则来实现最佳平衡。每次都需要考虑不同价值之间的最佳权衡,并从分析所涉及的价值开始。
另一个可能出现伦理困境的场景是所谓的“道德黑客”。道德黑客可以定义为以亲社会目标为目的违反网络安全的行为。例如,黑客在获得所有者授权的情况下攻击系统以测试其安全性。但并非所有道德黑客案例从伦理角度看都如此清晰,例如研究人员寻找漏洞以及他们以不同方式处理漏洞报告的情况。
黑客为其行为辩护的论点可归纳为四种。第一,他们声称所有信息都应该是自由的,这里的“自由”既指无需成本,也指不受所有权或审查限制。这一主张存在争议。实际上,如果所有信息都免费,将没有市场,也没有开发信息的动力。此外,个人将无权保持某些信息的私密性。第二,黑客声称,他们试图侵入计算机系统通常是有益的,因为这向能够解决问题的对象揭示了安全问题。换言之,黑客侵入系统是为了侵入本身,而非为了窃取或破坏。这里可以用一个比喻来揭示此主张的问题:治安维持者是否有权试图闯入房屋以证明其易受小偷光顾?使用病毒、拒绝服务攻击或访问私人文件作为解决问题的手段,其伦理依据是什么?第三,黑客辩称,只要黑客不做任何更改,未经授权访问计算机系统不会造成伤害。然而,仅仅未经授权的进入就可能侵犯财产权和隐私权,从而对个人造成伤害。第四,黑客声称他们有助于遏制“老大哥”,因为他们拥有专业知识来发现信息技术的不当或滥用。这个论点正确地指出公众需要保护以防止信息滥用。但黑客是否是最好的保护形式,似乎是另一回事。
网络安全在人工智能这一特定领域也很重要。如果我们考虑欧盟委员会任命的高级专家组制定的《可信人工智能伦理指南》文件,其中有几个原则需要结合网络安全进行讨论。
以下是其中一些原则:
- 预防伤害原则:这与网络安全的目标最为接近。任何不保护用户福祉和权利的解决方案在伦理上都是不恰当的。正如我们所见,应以平衡的方式实现这一原则,以免损害系统的可用性。
- 尊重人类自主性原则:例如,在网络战中,由于越来越多地使用自主人工智能系统,人类识别攻击的能力可能受到挑战,从而侵犯人类自主性。
- 公平性原则:当使用自动决策系统检测黑客攻击时,这一原则可能被违反,因为这些系统可能出错并存在固有偏见。
- 可解释性原则:在基于机器学习技术的人工智能技术出现后,这一原则变得尤为重要,因为这些技术产生的结果有时难以解释。这里的一个潜在风险是,使用这些机器学习技术的程序可能由于缺乏可解释性,使得有意义的人类控制变得不可能。
总结
本节课中,我们一起学习了网络安全的核心目标(CIA三元组),探讨了其涉及的多个伦理维度,包括责任归属、价值平衡以及“道德黑客”的争议。我们还特别关注了在人工智能背景下,网络安全如何与可信AI的关键伦理原则(如预防伤害、尊重自主性、公平性和可解释性)相互交织,并带来独特的挑战。理解这些交叉点对于负责任地开发和使用人工智能技术至关重要。
035:人类决策与人工智能(第一部分)

在本节课中,我们将要学习人工智能,特别是机器学习,如何被用于支持人类在多个领域的决策。我们将探讨其应用、工作原理以及其中可能存在的问题。

概述
人工智能,特别是机器学习,目前被用于支持许多不同领域的决策。从自动化招聘系统,到用于量刑决策中预测未来犯罪类别的商业工具,自动决策系统处理关于人的数据,并融合了人类与自动化的决策过程。

使用人工智能来支持人类决策并非新鲜事。例如,自20世纪80年代以来,已经创建了多个用于支持疾病诊断及其可能治疗方案的辅助系统。如今的新颖之处在于其方法。
传统方法与现代方法
上一节我们介绍了人工智能在决策支持中的应用历史。本节中,我们来看看传统系统与现代系统在方法上的根本区别。
传统系统采用一种自上而下的方法。这种方法基于人类建立的知识和规则。
当前系统则使用一种自下而上的方法。这种方法基于系统从经验中学习规则、推断新知识的能力。这种方法通常使用机器学习技术。
什么是机器学习?
学习是表征智能的关键能力之一。一个能够从经验中学习的程序,可以适应新情况,并在没有明确指令的情况下执行任务。
一个机器学习程序并不拥有在给定情境下需要执行的精确指令。相反,该程序从一个足够大的数据集出发,能够构建出一个数学模型。这个模型可以根据接收到的输入,自动预测出最准确的答案。
分类:一种学习形式
分类是学习的一种可能形式。分类算法能够通过从一组已知类别中进行选择,来预测一个未知对象属于哪个类别。
以下是分类学习的一个类比机制:
- 这类似于一个想要认识动物园里动物的孩子。起初,老师会向她展示动物并说:“这是天鹅,这是鸭子。”
- 经过一些其他例子后,孩子会尝试正确地对新动物进行分类。
- 错误将帮助她改进这个学习过程。
决策可以被视为分类问题。分类算法可以应用于许多不同的场景。重要的是,首先用于训练算法的示例数量要足够大;其次,这些示例要能代表算法将要决策的目标群体。
机器学习的应用场景
机器学习可以应用于非常简单的决策,例如决定下一个观看的视频或下一次购买的商品。这就是所谓的推荐系统。在这种情况下,算法基于相似性原则进行学习:表现出相似行为的用户在未来也会保持相似。
然而,同样的机制也可以应用于更具争议性的决策,正如数学家凯西·奥尼尔在其著作《数学杀伤性武器》中所讨论的那样。
以下是几个具体应用示例:
- 奥尼尔描述了一个名为“IMPACT”的自动决策系统,用于自动评估华盛顿特区学校中的教师。根据学生在标准化测试中取得的成绩,为每位教师分配一个分数。不幸的是,这导致了一些实际上深受学生及其家庭尊敬的教师被解雇。
- 类似的系统也用于招聘流程中,用于筛选简历和评估工作面试。
- 更成问题的应用是所谓的预测性司法。这些自动决策系统被用于预测再犯可能性,即被捕人员再次犯罪的可能性。例如,在美国,名为“COMPAS”的软件被广泛用于自动评估再犯风险。在英国,也使用了类似的软件。
算法的局限性与问题
在决策基于预测、且待预测的事件或类别定义明确且可测量的情况下,使用此类系统看似简单。然而,尽管存在改进决策过程的机会,这些技术的许多应用仍存在问题。
算法常常受到一种积极的偏见,即人们认为它们是中立的,并能产生客观的结果。然而,使用数学和统计工具并不足以保证决策是公正的。
一个数学模型始终是现实的一种表征,因此它包含假设、简化,甚至可能的错误。这些假设可能会限制机器学习算法的应用,并引发伦理和社会问题。
一个可能的假设涉及用于生成训练算法数据样本的机制。如果这些数据样本不能充分代表特定情境下感兴趣的人群,那么风险就在于考虑那些不显著甚至具有误导性的相关性。

这些以及类似的假设导致了机器学习中一个众所周知的问题,称为过拟合。
过拟合问题
过拟合发生在模型仅在训练阶段使用的示例上表现准确,而其性能在测试阶段下降的情况。换句话说,一个相对于训练示例过拟合的算法无法进行泛化。
这就像一张地图,仅对城市的某个特定区域非常精确,但对其他区域则不够详细,因此对我们定位没有太大用处。
总结

本节课中,我们一起学习了人工智能如何支持决策,了解了机器学习特别是分类算法的基本原理,并探讨了其在从推荐系统到司法预测等领域的广泛应用。我们认识到,并非所有这些算法都必须是准确、稳健和安全的;从伦理、社会和法律的角度来看,它们也必须合规。在下一讲中,我们将阐述一些最常见的问题以及处理这些问题的可能方法。
036:人类决策与人工智能(第二部分)

在本节课中,我们将探讨自动化决策系统在带来高准确性的同时,所引发的一系列复杂问题。我们将重点关注透明度、责任归属、算法歧视以及系统对用户行为的影响等核心议题。
上一节我们介绍了自动化决策系统在特定情境下的高准确性。本节中,我们来看看这些系统在实际应用中可能引发或加剧的各类问题。
透明度挑战
透明度是决策过程中的关键要素。学校、医院和银行等机构必须遵守非常明确的透明度标准。透明度对于记录导致某项决策的因素至关重要。此外,对于决策的承受者而言,透明度同样重要。例如,一个透明的公共管理机构应确保其公民能够获取与其相关的数据和流程信息,以便公民在必要时能够对决策结果提出申诉。因此,透明度是行使隐私权、确保流程公正无偏的条件。
然而,透明度可能因人为因素而变得困难,例如腐败或官僚主义。在决策过程中使用机器学习工具会带来进一步的困难。
以下是机器学习导致透明度降低的两个主要问题:
- 数据敏感性:用于决策的数据和信息并非总能全部公开。这些数据可能涉及敏感信息,其披露可能会损害相关主体的利益。
- 算法不透明性:机器学习本身具有某种内在的不透明性。即使能够访问算法的源代码,也并不意味着人类能够理解该算法。例如,深度神经网络通过数十亿次算术运算产生输出,其运算序列无法提供任何关于得出特定结果的原因线索。
自动化决策系统是对用户隐藏其内在逻辑的“黑箱”。为了克服这一关键弱点,可解释人工智能 提供了多种方法,有时甚至不惜以牺牲部分准确性来换取可解释性。
责任归属难题
另一个值得考虑的因素是,开发和采用自动化决策系统所涉及的不同行为主体关系错综复杂。在许多情况下,算法的开发者、算法的分发者以及数据的所有者是彼此分离的。因此,当算法输出错误时,要归咎责任会变得非常困难。
算法歧视问题
用于决策的机器学习算法的另一个问题是歧视。歧视通常与植入算法中的假设有关。这些假设可能无意中导致不公正的决策,并且源于用于训练算法的数据。

以下是导致算法歧视的几种常见情况:
- 数据代表性不足:当训练样本的构成不能代表整体人口时(例如,样本中白种人男性过多),算法对样本中代表性不足群体的预测准确性就可能降低。
- 敏感特征失衡:如果算法在性别或种族等敏感特征上失衡,就可能导致社会歧视。
一项针对主流商业人脸识别系统的研究表明,其性能在被分类对象的性别和肤色不同时会下降。另一个问题是,算法可能在包含偏见的数据集上进行训练。偏见可能是统计性的(模型未能正确表示数据),也可能是社会性的(数据未能正确反映世界)。例如,在刑事判决中已发现种族偏见。之前提到的Compass软件,虽然能正确预测61%的累犯情况,但不幸的是,黑人被错误标记为高风险(但实际并未再犯)的可能性几乎是白人的两倍。该工具在白人身上则犯了相反的错误,他们比黑人更有可能被错误地标记为低风险。
可以说,这些相关性反映了某些现存的社会偏见。例如,已证明一些在互联网海量文本上训练的算法,确实再现了心理学研究中发现的相同人类偏见。这些算法基于大数据进行训练,使得识别偏见变得更加复杂。此外,当这些决策结果被用于其他训练过程时,还可能放大算法的歧视效应。
迄今为止,那些以算法公平性为名的尝试(即开发不仅准确而且公平的算法)仅能缓解问题,而未能根除。或许最根本的问题之一不是如何用新的技术方案来修正偏见,而是是否应该开发那些可能有害的自动化决策系统。
对用户行为的影响
另一个问题与机器学习系统和用户之间的关系有关。这里的风险可能源于算法影响人类行为的能力。根据助推理论,算法可以温和、善意地“助推”用户,例如,像推荐系统那样,建议用户可能更感兴趣的内容。然而,当这种温和的推动变成操纵时,就可能变得危险。
数据之间的相关性可能被某些人利用来影响人类行为。例如,在剑桥分析公司丑闻中,心理测试答案连同人口统计数据和在线行为数据被用来预测人格特质,进而可能定义Facebook用户的政治倾向。可能的操纵和自主权的丧失很少是故意的,而更多是某些系统设计方式(例如,为了优化点击量或正确答案数量)的间接后果。
应对策略
面对这些问题,可以采取不同的应对方法。
以下是几种主要的应对策略:
- 法规监管:通过法规监管,旨在促进自动化决策系统开发和使用过程中的公平、公正、问责和透明。
- 明确声明假设:通过明确声明信念和假设来对抗偏见。这种方法与审计这些系统的可能性密切相关,正如一些可解释AI技术所建议的那样。
- 提升数据质量:数据质量可以发挥非常重要的作用,因为正如我们所看到的,这些系统严重依赖数据。

本节课中,我们一起学习了自动化决策系统在透明度、责任、公平性和对用户影响方面带来的复杂挑战。总而言之,这些问题属于社会技术性问题。它们无法单靠技术解决,而需要在设计和监管层面都转变视角。
人工智能:概述 专项课程:第9章:信息社会中隐私的价值(第一部分)


在本节课中,我们将探讨人工智能与隐私之间的关系。人工智能工具催生了多种形式的监控,这对隐私产生了影响。此外,关于隐私的讨论也伴随着信息技术的发展而共同演进。
具体而言,信息技术所构建的社会常被称为“监控社会”。但首先,我们需要明确什么是隐私。
什么是隐私?
隐私通常与“独处的权利”相关联,并可以从不同角度理解。
- 宪法或决策隐私:指个人在涉及被视为私密和个人的事务上,不受他人干涉而做出自主决定的自由。例如,决定是否堕胎。
- 思想或信息隐私:指个人在控制他人获取自身信息方面的利益。例如,个人决定在社交媒体上披露哪些信息。
为何需要关注隐私?
正如学者黛博拉·约翰逊所指出的,这个问题可以进一步细化为:隐私的价值究竟是什么?如果隐私消失,我们究竟会失去什么?当我们生活在监控社会中时,我们会成为怎样的存在?
为了更好理解信息技术发展如何塑造隐私辩论,有必要列出当前信息流动的特征。
当前信息流动的特征
以下是当前信息流动的几个关键特征:
- 规模:如今收集的个人信息量远大于过去。原因是电子记录易于创建、存储、维护、操作、搜索和共享。
- 类型:实际上创造了新型的个人信息。例如,当我们使用信用卡时产生的交易生成信息。
- 分布:个人信息分布更广泛。一旦个人信息被记录在服务器上,它就可能被买卖、赠送、交易甚至窃取。
- 持久性:信息的存续时间更长。当信息以电子方式存储时,可能缺乏将其删除的动力。
- 影响:个人信息的错误影响在此背景下被放大。错误信息可能迅速传播,以至于个人无法追踪其存在的所有地方。
反对重视隐私的常见论点
为了理解隐私的重要性,我们可以先审视那些认为无需担心密集追踪和行为监控的观点。他们通常提出以下论点:
- 隐私只保护有秘密的人:如果你没做错事,就不必担心被监视。
- 隐私被高估了:生活在信息技术社会中的人们实际上已经放弃了隐私,这证明隐私既不被重视,也没有价值。
- 信息收集对双方都有益:组织收集的个人信息对收集信息的组织以及信息所涉及的个人都有巨大好处。
对上述论点的反驳
现在,让我们考虑对这些论点的可能反驳,以理解隐私的价值及其作用。
首先,“隐私只保护有秘密的人”这一说法并不正确。信息可能严重影响你的生活,即使你没有做错任何事。例如,仅仅因为你被错误地记录在警方数据库中,就可能导致你被剥夺应得的福利或遭受不应有的对待。此外,某些信息在特定情境下被组织使用可能是不恰当、不公平甚至非法的。例如,社交网站上的信息被公司用于招聘决策。
其次,“隐私被高估了”这一说法也不成立。个人轻易给出个人信息,并不必然意味着他们不重视隐私或隐私没有价值。实际上,他们可能是天真、不知情,或者只是做出了错误判断。例如,当个人选择是否提供个人信息时,选项的设定方式可能导致他们在不知情的情况下做出违背自身利益的选择。通常,我们只有两个选择:要么为了获得利益而披露信息,要么完全放弃该利益。

最后,“个人信息收集实践对组织和客户都有益”也并非总是正确。可能存在组织利用信息不是为了服务客户,而是为了塑造客户行为的情况。此外,这些组织在针对个人做决策时,也可能使用不恰当的信息。
总结
本节课中,我们一起学习了隐私的基本概念及其在信息社会中的重要性。我们讨论了反对重视隐私的主要论点,并逐一进行了反驳,列举了隐私至关重要的不同场景。在信息社会的背景下,保护隐私对于维护个人自主权、公平待遇和防止信息滥用至关重要。
038:信息社会中隐私的价值(第二部分)🔍


在本节课中,我们将深入探讨隐私的重要性,不仅将其视为个人利益,更将其视为一种社会公益。我们将分析隐私如何与自主权、平等和民主等核心价值交织在一起,并探讨在人工智能时代保护隐私的策略。
上一节我们讨论了隐私与监控社会,本节中我们来看看隐私作为个人利益和社会公益的重要性。
要理解这一点,关键在于认识到隐私如何与数据的基本价值(如自主权、平等和民主)紧密相连。

首先,让我们看看如何将隐私分析为一种个人利益。
正如伦理学家詹姆斯·拉斯早在1975年就认识到的,隐私在人际关系中扮演着至关重要的角色。例如,隐私对于维持多样化的关系是必要的。我们与他人的关系类型,恰恰取决于我们彼此掌握的信息。如果每个人都拥有关于我们的相同信息,我们就无法拥有多样化的关系。

然而,当隐私被仅仅框定为一种个人利益时,个人隐私就常常需要与安全或公共卫生等社会公益进行权衡。
在这种情况下,个人隐私总是处于下风。例如,美国《爱国者法案》在9/11事件后轻易获得通过,即使它对个人隐私施加了严格的限制。
正因如此,政治学家普里西拉·里根主张,隐私应被框定为一种社会公益,而不仅仅是个人利益。

为了更好地理解隐私作为社会公益的价值和作用,让我们引入一个在此讨论中常被提及的隐喻。
一些信息理论家观察到,生活在信息技术配置的社会中,类似于生活在一个“全景监狱”中。
全景监狱是由英国哲学家杰里米·边沁在18世纪设计的一种监狱结构。“全景”意味着“全视”,因为囚犯住在呈圆形排列的牢房里,每个牢房的一侧面向圆形内部,并且由玻璃制成。守卫塔位于圆形的中心,因此站在守卫塔中的守卫可以查看每个牢房,但囚犯却看不到塔中的守卫。
只要囚犯相信他们可能正在被监视,他们就会调整自己的行为,并遵守他们认为守卫想要执行的规范。
全景监狱的隐喻常被用来描述我们当前的社会。如果我们所做的大部分事情都被记录,并可能对我们未来的待遇产生影响,那么我们在行动时就必须考虑我们的监视者及其规范。
这里产生了两个不同的关切:第一个关切是对我们自由(即自主权)的影响;第二个关切则与“谁是我们的监视者”以及“他们如何选择用以评估我们的行为规范”有关。

因此,隐私的缺失不仅影响人际关系的多样性,更影响民主。民主的理念在于公民拥有行使自主权的自由。因此,民主需要具备批判性思维和自由的公民。
这里的问题不仅仅在于我们被追踪和监控。问题在于,用以衡量、评估和对待我们的规范,往往未经公众讨论和协商。这些规范对于被监视、评估和对待的个人而言是不可见的。
鉴于以上所有原因,隐私的重要性不容低估。围绕人工智能影响的公共辩论应充分包含对隐私的讨论,既包括其作为个人利益,也包括其作为社会公益的层面。
这场辩论应伴随着一系列应对策略,并且应认识到它涉及不同的利益相关者,例如监管机构、政策制定者、公民、公司、专业协会以及计算机科学家和工程师。
以下是应对隐私挑战的一些策略示例:

- 专业协会:应制定行为准则,倡导处理信息的公平实践。
- 监管机构与政策制定者:应推动公司采用透明的政策。消费者和客户在隐私问题上如此顺从的原因之一,是他们大多不了解信息处理实践。
- 关于“选择退出”策略:鉴于消费者、客户和公民对信息处理实践知之甚少,“选择退出”策略似乎不公平,甚至具有欺骗性。如果组织未经我们许可不能使用我们的个人信息,那么他们就必须告知我们他们的做法,并说服我们选择加入。
- 系统架构设计:以能够保护隐私的方式设计信息技术系统的架构至关重要,例如“通过设计保护隐私”的理念。这能在收集何种数据以及数据如何流动方面产生巨大差异。


本节课中,我们一起学习了隐私的双重价值。我们了解到,隐私不仅是维护个人人际关系多样性的关键,更是民主社会赖以生存的基石,它保障了公民的自主权和自由。隐私的缺失会导致无形的规范支配社会,削弱民主。因此,不仅是计算机科学家和工程师,每个人都应认识到隐私的核心地位及其对我们个人生活和民主社会的深远影响。应对这一挑战需要多方利益相关者共同努力,从制定行业准则、推动政策透明化,到在技术设计中嵌入隐私保护理念。
039:道德化技术

概述
在本节课中,我们将要学习“道德化技术”这一核心概念。我们将探讨技术制品如何承载道德与政治意涵,它们如何作为中介影响人类的行为与决策,以及这对人工智能的设计与责任意味着什么。
技术制品承载道德与政治意涵
技术制品并非价值中立的工具,它们天然地带有道德与政治色彩。许多学者已经证实了这一点。
以下是两个关键例证:
- 种族主义天桥:技术哲学家兰登·温纳曾讨论过城市规划师罗伯特·摩西在20世纪上半叶设计的“种族主义天桥”。摩西故意将长岛公园大道上的数座天桥设计得过低,以致公交车无法通过,只有小汽车可以通行。这增加了前往琼斯海滩公园的难度,使得只有能负担得起汽车的人(在摩西的时代,通常不是非裔美国人)才能轻松抵达海滩。
- 减速带:科学社会学家布鲁诺·拉图尔认为,技术制品是道德的承载者。它们持续不断地为人们做出各种道德决策。例如,关于驾驶速度的道德决策常常被委托给减速带,它直接告诉司机:“在到达我之前减速。”
技术中介:技术如何塑造行为与感知
上一节我们看到了技术如何体现价值观,本节中我们来看看技术如何作为中介直接影响我们。技术中介是指技术在履行其功能时,帮助塑造用户的行为和感知的现象。
换句话说,技术并非简单地连接用户与环境的中立媒介,而是具有影响力的中介,帮助塑造人们使用技术的方式以及他们体验世界的方式。
技术中介的概念可以通过产科超声检查来具体说明:
- 超声检查不仅是让子宫内胎儿可见的功能性手段,它还中介了胎儿与父母之间的关系。
- 例如,超声将胎儿图像从女性身体中分离出来,为胎儿创造了一个作为独立生命体的新形象。
- 此外,超声将胎儿置于医疗规范的语境中,它将怀孕转化为一个医疗过程,将胎儿转化为潜在的患者,将先天缺陷转化为可预防的痛苦。
道德化技术:将道德嵌入物质环境
上述证据表明,我们不应仅将道德视为人类的事务,也应将其视为“物”的事务。与其去“道德化”他人,人类也应该(或可以)去“道德化”他们的物质环境。
如果我们希望人们乘坐地铁时买票,我们不仅可以教育他们在进站前购票,还可以设计地铁闸机来帮助(或要求)人们在进入地铁前完成购票。
因此,道德化技术是指为了塑造道德行为和道德决策而有意开发技术。在某种意义上,道德决策是人与技术制品共同努力的结果。
与人工智能设计的关联:主动责任、不确定性与不可见性
道德化技术与我们之前学过的“主动责任”概念紧密相关。主动责任意味着采取行动预防技术的负面影响,同时实现其积极后果。
那么,主动责任方法、技术道德化与人工智能之间有何联系?简单的答案是,主动责任在像人工智能这样对人类和社会有重大影响的技术设计中起着关键作用。
然而,还有另外两个重要因素值得引入:
- 不确定性:这不仅与人工智能技术本身有关,也与其被引入使用环境以及与人类互动的方式有关。这就是为什么人工智能技术可以被标记为实验性技术。如果对某项技术的操作经验有限,无法基于经验直接评估其社会效益和风险,那么它就是实验性的。
- 不可见性因素:计算机伦理学家吉姆·摩尔在一篇著名论文中提出了这个概念,他认为在大多数时间和条件下,计算机的操作是不可见的。他区分了三种类型的不可见性:
- 滥用的不可见性:故意利用计算机的不可见操作进行不道德行为。
- 编程价值的不可见性:那些有意或无意被植入程序中的价值观。
- 复杂计算的不可见性:计算机超越人类理解能力的巨大计算能力。

在考虑采用主动方法来设计人工智能技术、以塑造其促进积极影响时,必须同时考虑不确定性和不可见性因素。
道德化技术的挑战与风险
让我们考虑一种具体应用了人工智能技术、旨在促进积极效果的道德化技术:汽车酒精锁。这个工具可以在你体内酒精浓度高于法定标准时,阻止你驾驶。
假设这个设备工作无误,且在隐私方面没有问题。然而,许多人仍然不会购买装有这种锁的汽车,即使其价格与普通汽车相同。

人们对这类行为引导技术的负面反应很常见,原因如下:
- 对自由与尊严的威胁:人们担心人类自由受到威胁,民主被技术专家统治所取代。自主性的减少被视为对尊严的威胁,因为控制权不在人,而在技术。
- 道德能力退化的风险:如果我们将道德决策委托给技术,我们可能会丧失进行道德决策的能力。
- 缺乏民主合法性:技术在限制人类自由方面与法律不同,其中所实现的价值和选择并非民主进程的结果。
设计民主化的道德化技术
一个关键问题是找到一种民主的方式来设计道德化技术。这意味着,例如,植入这些价值观的过程必须是透明的,并经过公开讨论。
技术设计者不能简单地将一种期望的道德形式刻入制品中。这一点非常重要,以避免意外和不受欢迎的中介形式。一个著名的例子是节能灯泡的发明,本意是减少能源消耗,结果却因为灯泡被添加到以前未照明的地方而增加了总能耗。
因此,技术设计似乎不仅仅是发明功能性产品。技术中介的视角揭示,设计应被视为一种物质化道德的形式。工程设计伦理应该更严肃地对待技术产品的道德负载,并相应地重新思考设计者的道德责任。

总结
本节课中,我们一起学习了:
- 技术制品承载着道德与政治意涵,并能作为中介塑造人类行为与感知。
- “道德化技术”是指有意设计技术来引导道德决策。
- 在人工智能等技术的设计中,必须结合“主动责任”原则,并充分考虑其“不确定性”和“不可见性”带来的挑战。
- 道德化技术面临风险,如威胁自由、削弱道德能力及缺乏民主合法性。
- 最终,设计者不能单方面将道德嵌入技术,而需预见技术未来的中介角色;用户和公民应知晓谁决定了嵌入技术的价值观;政策制定者不仅应在事后监管现有技术,更应从最初就共同塑造它们。
040:人工智能伦理准则与指南 📜

在本节课中,我们将学习用于规范人工智能设计与使用的一些伦理准则和行为指南。我们将探讨这些准则的目标、核心价值、具体案例,以及它们面临的挑战和局限性。
概述
本节将介绍专业伦理的概念,并解释伦理准则和行为指南在规范人工智能开发与使用中的基本作用。
专业伦理关注专业人士的职责、权利与责任。它与专业责任相关联,这种责任基于个人作为专业人士的角色,且其行为需保持在道德允许的范围内。
伦理准则与行为指南
上一节我们介绍了专业伦理的基本概念,本节中我们来看看具体的伦理准则和行为指南是什么。
伦理准则是组织(如公司或专业协会)为其成员制定负责任行为指南的文件。更具体地说:
- 专业准则是由专业协会制定的行为准则。
- 企业准则是由公司制定的行为准则。
制定行为准则有多种原因,以下是其主要目的:
- 提高道德意识。
- 识别并阐释专业人士或公司的道德规范与价值观。
- 增强对外界的问责。
- 提升专业或公司的形象。
核心价值与原则
了解了准则的目的后,我们来看看支撑这些专业文化的核心价值。
这些核心价值包括:
- 正直:意味着遵循自己的道德价值观、规范和承诺。
- 诚实:意味着说出自己认为是真实的情况,并披露所有相关信息。
- 避免利益冲突:利益冲突是指个人(或专业)利益在实现时,可能与履行对雇主或其他客户的职业义务相冲突的情况。
具体准则案例
理论需要结合实际,现在让我们看一些人工智能领域的具体伦理准则案例。
案例一:ACM伦理准则
ACM(计算机协会)是全球最大的计算专业协会之一。它在1992年通过了《伦理与职业行为准则》。考虑到人工智能的发展,其更新版本于2018年通过。
案例二:IEEE的《伦理对齐设计》
另一个来自专业团体的有趣案例是IEEE(电气与电子工程师协会)在2019年发布的文件《伦理对齐设计》。该文件旨在建立社会和政策指南,以确保自主和智能系统保持以人为中心,服务于人类的价值观和伦理原则。其重点是开发不仅实现功能目标、解决技术问题,而且行为方式有益于人类的系统。
案例三:欧盟可信人工智能伦理指南
2018年,欧盟人工智能高级别专家组提出了《可信人工智能伦理指南》。这些指南提出了一系列关键要求,人工智能系统必须满足这些要求才能被视为可信赖。
以下是这些关键要求的列表:
- 人类能动性与监督:人工智能系统应增强人类能力,允许他们做出明智决策,并促进其基本权利。
- 稳健性与安全性:人工智能系统需要具备韧性和安全性。
- 隐私与数据治理:除了确保充分尊重隐私和数据保护外,还必须确保有适当的数据治理机制。
- 透明度:数据、系统和人工智能商业模式应该是透明的。
- 多样性、非歧视与公平:必须避免不公平的偏见。
- 社会与环境福祉:人工智能系统应造福全人类,因此必须确保其具有可持续性且环境友好。
- 问责制:应建立机制以确保对人工智能系统及其结果的责任和问责。
挑战与反思
尽管存在各种准则,但对其有效性和实用性也存在一些普遍的质疑。本节我们来探讨这些挑战。
针对准则和指南,通常可以提出一些反对意见:
- 有时行为准则的制定仅出于自身利益,即所谓的“粉饰门面”,目的是呈现一种没有事实依据的有利印象。
- 准则可能导致关于在特定情况下该如何做的矛盾建议。例如,对雇主的“批判性忠诚”可能要求将雇主的利益置于任何其他考虑之上。
- 一些学者认为,起草行为准则是一种误解,因为伦理无法被编纂成典。
- 有时行为准则包含难以付诸实践的条款。

总结
在本节课中,我们一起学习了人工智能领域的伦理准则与指南。
除了上述问题,公允地说,无论是伦理准则还是指南,都无法一劳永逸地定义何为好或坏。相反,它们代表了一个共同的起点,需要根据具体情况进行细化和实施。此外,由于当今人工智能具有广泛的公共维度,有必要从单一个体转向社会群体,采用能够尽可能代表所涉及不同方共享价值观的伦理方法。
人工智能伦理:专项课程:第41讲:人工智能伦理的范式转变

在本节课中,我们将探讨人工智能伦理领域的核心观点,理解为何解决AI伦理问题需要超越单纯的技术方案,并转向一种社会-技术-伦理的综合视角。

我们已经看到,人工智能伦理是一个广泛且不断扩展的领域。从AI的可持续性到数字医疗,许多新议题正在涌现,同时也有一些更传统的议题,如隐私相关问题或自主系统的责任问题。
一个共同的要素显现出来:人工智能的伦理问题无法仅通过技术手段解决。
它们需要一个社会-技术-伦理的视角,这意味着将技术解决方案整合到更广泛的伦理和社会框架中。这要求对当前范式进行根本性转变,并涉及不同的利益相关者。
以下是实现这一范式转变需要各方采取的关键行动:
- 首先,AI技术的设计者不能简单地将期望的道德形式刻入一个产品中。他们需要预见技术未来的中介作用,这通常需要运用道德想象力。
- 其次,用户和公民需要意识到,是谁决定了哪些价值应被嵌入到AI技术中。
- 最后,政策制定者的干预不能仅仅是在事后对已存在的技术进行监管,而是要共同塑造这些技术,并推动开放的公共辩论。
总之,重申这一点很重要:伦理不是一本提供答案的手册,也不是一份核对清单。相反,伦理是一个过程,而且确实是一个复杂的过程。它反思的是与人们所做的道德选择相关的问题和论点,因此,它无法被单一地确定。

伦理需要创造力和道德想象力,以增强我们应对道德问题的能力。
042:人工智能与法律概述

在本课程中,我们将学习人工智能技术带来的主要法律挑战与监管框架。人工智能因其应用的广泛性和提升生产力、降低成本的潜力,被视为我们这个时代最具前景的技术之一,也是被认为是新工业革命——工业4.0的关键推动因素。
人工智能和机器学习等相关解决方案的最新发展,不仅彻底改变了信息技术环境,也改变了日常生活,例如实现自动送货的无人机或自动驾驶汽车。在零售等领域,人工智能已拥有众多具体但不易察觉的应用,这些应用在改善供需整体效率和利润的同时,也对我们的线上线下客户体验产生了影响。

这场革命不可避免地也在监管和社会领域引发了深刻的思考,创造了需要填补的新法律空白,以及一些在几十年前似乎还属于遥远未来的挑战。
人工智能的风险与监管需求
尽管人工智能的发展带来了无数预期利益,但不可否认的是,机器人和智能系统的使用也伴随一系列必须预见和监控的风险。
以下是其中一些关键风险:
- 隐私侵犯风险:由于技术的渗透性,可能导致对个人隐私领域的非法压缩。
- 算法偏见与歧视风险:源于人类编程的智能系统,可能继承人类的认知偏见,从而做出可能具有歧视性的选择。
- 市场垄断与竞争扭曲风险:少数公司掌握大数据可能助长新垄断的形成,或成为市场竞争扭曲的源头。
- 自由选择与自主决定能力受损风险:对个人选择的极端画像可能筛选和过滤向其呈现的信息内容,直至损害其选择自由和自主决定能力。
此外,还需要对与人工智能使用相关的具体问题进行监管,例如:
- 责任归属问题:对于并非总能被人类预测或控制的智能机器的行为,其责任应如何分配?
- 知识产权适用性问题:知识产权立法如何适用于人工智能领域?
这些问题在现有法律类别和原则下不易解决,目前需要针对该主题制定专门的法律。
当前法律框架与未来立法
迄今为止,尚不存在专门用于规范人工智能系统使用,或分别处理由其使用引起或相关的有害事件或犯罪所导致的民事及刑事后果的具体立法。
因此,与这些新技术的设计、生产和使用相关的法律效力和问题,需置于现行立法背景下,并基于现有法律类别和原则予以解决。
同样,对于与智能系统设计、创建及其产出相关的知识产权和工业产权保护,将参考著作权法和工业产权法典。
最后,为解决与个人数据处理以及数据主体权利和自由保护相关的复杂问题,当前的参考监管框架由新的欧洲法规第679/2016号(即所谓的《通用数据保护条例》(GDPR))构成。该条例虽未明确具体提及新技术,但其出发点正是使个人数据处理和保护的主题适应当前的技术环境,尤其是考虑到创新风险以及最先进的工具对个人私密和个人领域的渗透性。
为了在欧盟内部建立一个统一框架,欧盟委员会于2021年4月21日提出了未来关于人工智能的欧洲法规草案。这将是欧洲在该领域通过的首个监管法案,旨在减轻和管理智能系统使用相关的风险,同时不妨碍其发展和传播。
本课程内容概览
在本课程中,我们将尝试概述与人工智能技术生产和使用相关的主要法律问题,并试图根据现行立法以及欧洲议会要求、欧盟委员会发布的拟议法规,提供一个框架和答案。
具体安排如下:
- 第2周:我们将探讨由智能系统完全自主实施的行为所引发的民事和刑事责任问题。如果人工智能做出错误决策并造成损害,谁应赔偿?如果它实施了犯罪,谁应负责?我们将尝试回答这些问题。
- 第3周:我们将结合知识产权立法探讨人工智能的保护问题。我们将了解保护公司知识产权的重要性,法律赋予创造性智力作品(如构成智能系统基础的软件)创作者的权利是什么,以及基于人工智能的技术在何种条件下可以获得专利。
- 第4周:我们将尝试理解由人工智能独立创作的作品(如艺术品、音乐作品、诗歌、新闻作品、文学作品等)的知识产权应归属于谁。
- 第5周:最后,我们将探讨使用人工智能可能对基本权利和自由带来的风险。我们将讨论算法独裁、算法偏见和歧视风险,并尝试理解GDPR对于基于自动画像的智能技术的使用有何规定,以及法规要求生产和实施符合规定的智能技术所需遵循的所有步骤和手续。


在本节课中,我们一起学习了人工智能的广阔前景及其引发的法律挑战,概述了当前监管框架的缺失以及欧盟正在推进的立法努力,并预览了本课程后续将深入探讨的核心议题,包括责任归属、知识产权保护以及基本权利风险等。
043:人工智能的民事责任与损害赔偿

在本节课中,我们将要学习人工智能应用中的一个核心法律议题:当人工智能系统造成损害时,谁应承担民事责任并进行赔偿。我们将探讨民事责任的基本概念、人工智能带来的特殊挑战,以及当前法律框架下的思考方向。
民事责任的基本概念
上一节我们提出了人工智能造成损害的问题,本节中我们来看看民事责任的具体含义。
我们所说的民事责任,指的是因违反私法义务(即涉及私人公民之间关系的义务)而产生的损害赔偿责任。一个极端的例子可以表述为:任何对他人造成损害的人,都有义务进行赔偿。
通常情况下,将民事责任(以及相应的赔偿义务)归咎于一个人,需要存在主观过错要素,即:
- 故意:明知并有意造成损害。
- 过失:疏忽、鲁莽或缺乏经验,即非有意造成损害。
然而,立法也规定了一些严格责任的例外情况。严格责任仅要求有害事件与致害方行为之间存在因果关系,而不考虑是否存在恶意或过失的心理要素。
人工智能造成损害的现实风险
随着技术的进步和普及,与人类一样,智能系统无疑也会犯错、做出错误决策并造成损害。这个问题远非无关紧要。
最经典的例子是自动驾驶汽车。事实上,该领域已经发生了可归因于自主系统行为的伤亡事件。
第一起由自动驾驶汽车导致的致命事故发生在2016年5月7日。当时,特斯拉Model S的车主约书亚·布朗在佛罗里达州的高速公路上行驶时,决定依靠汽车的自动驾驶功能。在他观看电影时,汽车撞上了一辆正在左转的、对向车道的卡车。汽车制造商解释事故原因是卡车的颜色欺骗了系统——与车身垂直的白色侧面在当时特别明亮的天空背景下无法被区分开来。
这虽然是一个罕见案例,但从法律角度看,它引发了诸多思考。
为了理解该议题的相关性,我们可以再举一个几乎涵盖人工智能技术所有应用领域的例子:
- 在医疗外科领域,人工智能越来越多地用于诊断目的。
- 在护理领域,人工智能也被假设用于紧急情况。
- 在银行业,用于管理客户信贷风险的预测系统日益普及。
- 在人力资源领域,支持研究和人员选拔的智能系统正在普及。
- 在保险业,基于神经网络的图像识别系统开始被大规模用于加速并可靠地评估理赔。
考虑到这些例子,我们意识到智能系统出错的可能性是一个真实的风险。也就是说,当被问及特定问题时,系统可能基于不正确、不完整或片面的参数给出客观上错误的答案。同样,由人工智能选择或决策可能造成的损害是具体且有效的。确定对此类损害负有赔偿责任的当事方,并非仅是法学家讨论的话题或注定只在法庭上辩论。相反,立法者未来关于人工智能生产和使用相关的民事责任所做的选择,潜在地能够构成对发展和创新的阻碍或激励。它们能够引导公司做出“制造或购买”的决策,并最终决定谁应承担技术进步的代价。

人工智能带来的特殊挑战
实际上,损害责任的分配是任何技术都会面临的问题。但在人工智能的情况下,这个问题因智能系统通常基于自学习算法而进一步复杂化。系统根据自身经验及与外部环境的互动进行学习和自我决策。
这意味着,设计程序或构建系统的人可能无法预测或预先知道系统对周围环境的反应。因此,问题随之产生:谁应该为一种可能无法预测或不可避免的行为负责,从而必须赔偿损害后果?
正如我们将在后续课程中更详细地看到的,基于现行法规,这个问题的答案并非总是简单明了。正因如此,欧洲机构(特别是欧洲议会)近年来一直在研究这个问题。欧洲议会在2020年10月20日发布的决议中(我们将在后续课程中详细研究),提议引入与人工智能相关的特定责任制度。
换句话说,欧洲议会希望看到一部新的、因此对所有成员国通用的欧洲立法,为人工智能造成的损害制定统一的赔偿规则。
总结

本节课中,我们一起学习了人工智能民事责任的核心议题。我们明确了民事责任通常需要主观过错,但也存在严格责任的例外。通过自动驾驶汽车等实例,我们认识到人工智能造成损害是一个现实且广泛存在的风险。由于人工智能,特别是基于自学习算法的系统,其行为可能无法被设计者完全预测,这给传统的责任认定框架带来了特殊挑战。目前,立法机构(如欧洲议会)正在积极探索和制定专门针对人工智能的赔偿责任规则,以应对技术发展带来的新问题。
044:人工智能的现有民事责任法律框架

在本节课中,我们将探讨一个核心问题:当人工智能系统造成损害时,应由谁来承担赔偿责任。我们将梳理现有适用于涉及智能系统的有害事件的法律规则。
民事责任的两种类型
上一节我们介绍了确定责任方的重要性,本节中我们来看看民事责任的基本分类。民事责任主要分为两种:合同责任与非合同责任。
- 合同责任:这种责任以合同关系的存在为前提。当合同一方未能履行合同约定的义务时,即构成违约,需承担合同责任。
- 非合同责任:这种责任不要求存在合同关系,它源于法律体系的一项普遍原则——过错责任原则。该原则指,在日常活动中,个人必须谨慎行事,避免给他人造成不公正的损害。任何人,无论故意或过失,若对他人造成了不公正的损害,都需对此负责并进行赔偿。
当然,与使用智能系统相关的责任形式可能很复杂,有时针对同一损害事件,不同责任形式可能重叠。
以下是一个例子:
假设一辆自动驾驶汽车的操作系统发生故障,导致其用户受伤。那么,用户可以向汽车制造商主张合同责任。
然而,如果由于这个缺陷,汽车撞上了另一辆车,并对第三方造成了财产损失。那么,汽车所有者将对第三方承担非合同损害赔偿责任。
适用于AI产品的现有法律框架
鉴于上述分类,目前意大利或欧洲尚无专门规范人工智能系统使用及机器人行为所衍生法律后果的立法。
但是,存在一个将AI系统视为“产品”的适用法律框架。这主要涉及两个立法体系:
- 产品通用安全法规:该法规对投放市场、面向消费者的所有产品(包括用于提供服务的产品)施加了特定的安全要求。例如,一个AI语音助手就是一种产品,制造商可以通过它持续提供各种服务。
- 产品缺陷责任法规:该法规基于一项原则:如果因制造缺陷对用户或第三方造成损害,生产者需承担严格责任,无论其行为是否存在过错。
这里需要强调,根据欧洲立法,“生产者”的定义包括:成品制造商、原材料生产者、部件制造商,以及任何通过在产品上标注其名称、商标或其他识别特征而自视为生产者的人。
若将类似定义应用于人工智能系统的生产,我们可能得出推论:不仅成品系统的生产者需承担严格责任,简单部件的生产者(如软件开发者)乃至系统底层算法的开发者也可能需要负责。
当前法律框架的局限性
然而,生产者责任法规仅能解决将智能系统视为“产品”(即物体)的情况,对于系统作为“智能体”行事的情况则无能为力。
同样,我们来看一个例子:
判定由无线电遥控无人机造成的损害应由操控者或有缺陷的制造者赔偿,这相对简单,也是当前法律的规定。
但将同样的责任原则,应用于由人工智能自动驾驶系统控制的无人机所造成的损害,则要困难得多。因为这类系统能自主决定遵循何种轨迹以达到目标、执行哪些动作,以及在移动区域内将物体或人员暴露于风险的程度。
此外,AI系统的复杂性及其互联性要求除生产者外,多个主体参与其设计和运行。仔细分析不难发现,在损害事件中,可能涉及许多主体,例如:算法创造者/构思者、程序员、生产者、系统用户、所有者等等。但现行法律无法明确回答:应由谁来为AI的错误决策所造成的损害进行赔偿。
回到智能无人机的例子,很难确定其造成的损害应归责于生产者还是其所有者。实际上,智能系统自主决策和选择的能力——并非依据预设指令,而是基于AI与外部环境的互动而可能演变的方式——可能导致不可预测或不可避免的行为。这在任何情况下都可能切断AI系统程序员或用户的行为与损害事件之间的严格因果关系链条。
本质上,在某些情况下,可能根本无法将AI系统的特定有害行为归因于特定的人类输入或设计决策。
改革的必要性与紧迫性

当前立法在保障损害赔偿方面的不足,一方面可能阻碍消费者购买和使用AI产品与服务,另一方面也可能抑制投资,拖累该领域的发展。
正因如此,责任问题已被激烈讨论多年。如今,改革现行监管体系显得必要且紧迫,无论是在欧洲还是意大利层面,都需要使其适应新技术,同时统一所有成员国的立法,以促进跨境贸易和欧洲单一市场的发展。
总结

本节课中,我们一起学习了人工智能领域的现有民事责任法律框架。我们首先区分了合同责任与非合同责任,然后介绍了将AI视为“产品”时可适用的生产者严格责任法规。最后,我们重点分析了当前法律在面对作为“智能体”的AI时所面临的挑战与局限性,并指出了为促进技术创新与市场发展而进行法律改革的紧迫性。
045:智能系统生产与使用的责任


在本节课中,我们将学习欧盟议会关于人工智能系统造成损害的责任制度提案。我们将探讨当前法律框架的不足,以及提案中确立责任主体、责任方式及保护措施的核心原则。
立法背景与目标
在前面的课程中我们看到,当前关于人工智能系统造成损害的立法责任仍不完善,并不总能充分解决相关问题。
因此,欧盟议会在2020年10月20日的决议中,要求欧盟委员会制定并提交立法程序,起草一部为人工智能建立特定责任制度的法律。
我们将尝试找出这项决议的主要要点。
决议从一个假设出发,即此领域的法律框架必须有两个目的:第一,确保潜在损害受害者的有效和公平保护;第二,确保公司在开发新技术方面有足够的行动自由。
实现这些目标,实际上将有助于一方面增加用户的信心,另一方面为投资提供稳定性。这也能更好地促进主要关注这些技术的初创企业和中小型公司的成长。
立法原则与挑战
然而,根据欧盟议会的意见,追求统一立法的目标不能废除现行法规。特别是,产品责任法规不应被删除,而应针对新技术进行更新,并辅以关于人工智能系统的新规定。
此外,欧盟议会认识到,尽管为每个相关领域制定部门法规更可取,但无论如何,为人工智能系统涉及的所有部门提供统一的外国法规并制定共同原则是合适的。
为人工智能系统造成的损害制定责任法规要解决的主要问题是,确定谁应对人工智能系统执行的活动负责。这是一个涉及多个层面的问题,因为从技术设计阶段到后续的执行、控制和维护阶段,可能涉及多个操作者。在自动决策过程中,情况变得更加复杂,例如用户最初部分或全部将决策委托给使用软件或服务的实体,或者人工智能系统的活动与其他系统(无论是否为AI)紧密相连并依赖于它们的情况。只需想想,例如一辆自动驾驶汽车因导航软件建议了错误操作而驶离道路所造成的损害。


此外,决议明确澄清,人工智能系统不能被视作具有法律人格的实体。换句话说,应排除仅由人工智能系统本身对损害负责的可能性。
责任主体的界定
欧盟议会认为,最合适的解决方案是让所有共同和分别承担责任的音频操作者负责,这些操作者制造或维持了风险状况,并且本应最小化风险但未能做到,因此必须对暴露的风险进行赔偿。
这些主体是控制人工智能系统并参与其价值链或创建过程的主体。因此,他们将必须根据各自对人工智能系统的控制程度按比例承担责任。
在这一点上,决议本身将人工智能系统的操作者比作汽车所有者。因此,他将根据其对系统的控制程度承担责任。
责任方式的划分
然而,确定了责任主体后,必须理解他们以何种方式承担责任,特别是考虑到人工智能系统可能部署在许多领域,准确评估责任需要考虑该领域的特定风险。例如,显然在医学中使用人工智能系统可能比在纯粹的经济关系中涉及更大的风险和相应的责任。
此外,必须考虑到,人工智能系统造成的损害的受害者通常甚至可能没有意识到这些损害。设想一个在公共空间(例如广场)运行的人工智能系统。损害的受害者可能与人工智能系统的操作者没有任何关系,甚至没有合同关系,因此将被迫证明他们因与其未建立任何关系的各方的疏忽而遭受了损害。
再次考虑由人工智能系统驾驶的汽车案例。被这辆车撞到的行人与车主、制造商、维护者等没有任何关系,然而他遭受了伤害。他将如何证明这些任何一方的疏忽?
为了克服人工智能系统造成损害的受害者在举证方面的困难,决议引入了高风险人工智能系统的概念。特别是,当人工智能系统的操作具有意外地、超出合理预期地对一人或多人造成损害的潜在可能时,即被视为高风险。

因此,为此目的,欧盟议会建议在清单中具体说明什么是高风险系统,根据情况区分需要证明什么来确定操作者的责任。
对于高风险人工智能系统,责任将是严格责任,无需证明操作者有任何疏忽行为。操作者将因其与人工智能系统相关的风险控制方面的关联而承担责任。

对于非高风险的人工智能系统,责任的评估将基于操作者在控制风险本身方面是否存在疏忽,而这种疏忽在任何情况下都被推定存在,因此需要由操作者来推翻这一推定,并证明其始终是尽职的。
法律保护措施
那么,在确定了谁以及以何种方式对所受损害负责之后,决议提供了哪些法律措施来保护用户和操作者双方呢?
为了界定对受害者的保护,同时又不让人工智能系统的操作者无限期地承担责任,欧盟议会特别指出了两项措施。
以下是两项核心保护措施:
- 规定经济赔偿上限:确定赔偿金额,在最严重的情况下可能高达200万欧元。
- 规定保险覆盖:要求所有操作者,至少在高风险系统的情况下,购买足以覆盖最严重损害且符合法定上限的保险。
然而,为了应对巨额赔偿,决议不排除在每个成员国设立基金以弥补超出既定上限的损害的可能性。
此外,决议提议为行使索赔权设定时限,在最严重的情况下可延长至30年。
最后,为了促进总部设在欧盟以外的生产商与操作者之间的联系,每个人工智能系统的生产商可以指定一名欧洲代表,负责人工智能相关事务的责任。
总结与展望
正如所见,该决议旨在为人工智能造成的损害提供一个参考性的规范。
这是一个目前尚不存在的规范,但如果被采纳,将必须与为每个风险领域设计的特定规定相结合。


本节课中,我们一起学习了欧盟议会关于人工智能责任框架的提案。我们了解了其立法目标、责任主体(控制AI系统的操作者)、责任划分方式(基于风险等级,区分严格责任与过错推定责任),以及旨在平衡受害者保护与产业发展的重要法律措施,如赔偿上限和强制保险。这个框架旨在填补当前法律空白,为人工智能的负责任发展提供指引。
046:人工智能与刑事责任


在本节课中,我们将深入探讨当人工智能系统参与犯罪时,如何确定刑事责任。我们将特别研究现有的刑法原则和规则对新技术的适用性。
根据定义,人工智能系统由人类设计,但它们也能够从环境中学习,例如机器学习。因此,将它们简单地视为实施犯罪的纯粹无生命的工具过于简单化。
所以,如果人工智能系统参与了犯罪,主要问题在于:机器能否被视为对刑事犯罪负有责任?谁将为人工智能造成的犯罪承担刑事责任,是软件的程序员、制造商,还是用户?如果人工智能系统能够学习,人类的责任边界又在哪里?
刑法基本原则:个人责任
让我们从刑法的一项基本原则开始:刑事责任是个人责任。这一原则带来了刑法中两个紧密相连的支柱。
一方面,为了认定某人负有刑事责任并适用相应的刑事处罚,犯罪必须基于行为人的心理要素。这包括故意(即有意识并希望造成犯罪结果)或过失(即疏忽、不谨慎、违反注意规则,但缺乏造成犯罪结果的意图)。
另一方面,只有人类才能对刑事犯罪负责。
这些支柱意味着,与民法领域不同,刑法中没有严格责任(即无过错责任)的容身之地。这被称为“无意识则无责任”原则。也就是说,迄今为止,刑事司法体系并未规定机器的刑事责任,因为它们没有指导其行为的意识。
人工智能作为犯罪工具
让我们通过一些例子来澄清问题。如果一个非常复杂的人工智能软件被编程为每秒执行数千笔金融交易,而交易员故意滥用它来制造金融市场的快速价格波动,这就构成了滥用市场操纵罪。在这种情况下,人工智能只是用于实施犯罪的纯粹技术工具,刑事责任完全可归因于人类。
然而,当人类行为与人工智能系统的活动紧密交织时,情况就变得更为复杂。因为最终实施的犯罪源于选择和权衡,而这些不再完全由人类做出,而是很大程度上与机器共享,甚至完全委托给机器。
现在,如果发生了具有刑事相关性的犯罪,在这种情况下确定谁应负责就变得非常复杂。
案例分析:自动驾驶汽车
让我们以自动驾驶汽车为例。2018年亚利桑那州的一个夜晚,一辆在高速公路上行驶的自动驾驶汽车撞死了一名突然在非人行横道处横穿黑暗街道的妇女。汽车的自动安全系统未能及时识别她。
那么,谁将为人工智能造成的这起犯罪承担刑事责任?乍一看,我们可能会归咎于程序员和制造商,因为他们未能为这种事件编程。然而,这远非易事。
首先,我们是否确定用户完全没有责任?他是否无论如何都应该保持一定的注意力?如果是,注意力的边界在哪里?在自动驾驶汽车的情况下,我们可以合理地排除任何用户责任。
至于程序员,我们必须考虑环境和不可预测情况的所有维度,尤其是事故发生在一条人们本不应横穿的高速公路上。
道德困境与编程挑战
这个案例也揭示了在涉及人工智能时确定刑事责任的另一个问题。事实上,一旦识别到危险,汽车必须在瞬间做出选择:采取一种能拯救行人生命的方式,还是保护乘客的方式,但无法两者兼顾。
从这个角度看,我们触及了道德困境,这影响着每一个与人类密切互动并对其生命有影响的先进人工智能系统的编程。
研究表明,并不存在一种可以采纳为人工智能应用设计标准的普世道德,从而指导确定谁应承担刑事责任。在人类历史上,从未有过将决定谁生谁死的责任赋予机器的情况。
广泛的应用领域与挑战
正如在民事责任部分所解释的,这个主题在几乎所有应用人工智能技术的领域都具有根本性的影响。我们只需想想健康和医疗外科领域,人工智能系统越来越多地用于辅助医生进行诊断和手术,甚至到了医生必须依赖人工智能设备输出的地步。

同样,在军事和公共安全领域,能够自主决定是否干预某些情况以及如何干预的无人机和机器人,也越来越多地用于执法。
现在,正如已经强调的,有两个关键点。
第一,人工智能系统会失败、会出错,因为它们被设定要考虑的参数,与现实生活提供的广泛情况相比,可能是不准确或不完整的。


第二,人工智能系统通常基于自学习算法,它们可以根据自身经验以及与外部环境的互动来自主决定,甚至有可能变得比人类更智能。
如前所述,这意味着设计程序或构建系统的人可能无法预测或事先知道系统对周围环境的反应。

刑事责任确定的困境
因此,如果从民事责任的角度看,即使复杂,也可能找到解决方案(例如,对设备适用严格责任)。相反,寻找确定刑事责任的标准要困难得多,特别是考虑到刑事处罚对人们的生活有重大影响。
有鉴于此,当前的刑法原则、范式和规则并不充分。因此,刑法学界呼吁进行更有针对性的法律干预,以重新思考涉及人工智能时的刑事体系。

总结

本节课中,我们一起学习了人工智能参与犯罪时的刑事责任认定难题。我们回顾了刑法个人责任的基本原则,分析了人工智能作为工具和作为自主决策者时的不同情形,并通过自动驾驶汽车的案例探讨了其中的道德困境与责任归属挑战。最后,我们认识到现有刑法框架在应对人工智能带来的复杂性方面存在不足,需要新的法律思考与调整。
047:智能系统的版权保护

概述
在本节课中,我们将要学习知识产权保护对于公司的重要性,并重点探讨基于人工智能技术的系统如何受到版权法的保护。我们将了解版权的核心概念、权利内容及其与专利保护的区别。
🎼 知识产权的重要性
知识产权对于所有类型的公司而言,都是一项需要培育和保护的重要资产。当今公司的价值主要体现在无形资产上,例如商标、专利、设计模型、工业设计、软件程序、商业秘密等。换言之,知识产权是公司财富的重要组成部分,也是保持其市场竞争优势的一种方式。
发明家、科学家、计算机程序员和企业投入了大量时间、金钱和精力来开发他们的创新和创造。为了鼓励这种行为,他们需要有机会从其投资中获得回报。这意味着赋予他们保护知识产权的权利。
本质上,版权、专利和商标等知识产权,通过让创作者或所有者控制其财产的使用方式,使他们能够从其工作或创作投资中获益。同时,法律为他们提供了一些法律行动,以保护自己免受未经授权利用此类作品的人的侵害。
😊 人工智能系统的权利归属
那么,那些基于人工智能技术创造和生产系统的人拥有哪些权利呢?
通常,智能系统底层的软件受版权法保护,但正如我们稍后将看到的,它通常不能申请专利。版权或作者权是一个法律术语,用于描述具有创造性的智力作品的创作者对其作品所拥有的权利。
版权涵盖范围极广,包括文学、音乐、造型艺术、建筑、戏剧和电影摄影领域的作品。
版权也涵盖计算机程序,它们被等同于文学作品,并因其表达形式(即其源代码的编写方式)而受到保护,而非因其功能性(即它们能做什么)或作为软件基础的思想。
版权的核心内容
版权包括经济权利和精神权利。
本质上,经济权利涉及为经济利益而利用作品、修改作品或分发作品的权利。换句话说,像软件作者这样的版权所有者,可以阻止任何人在未经许可的情况下复制或使用其作品,例如,包括创建新的未经授权的程序副本,或修改、重新编译源代码。
所有者如何具体执行这些权利,将取决于相关国家的国内法。但通常对于版权侵权,法律会提供民事救济(特别是以赔偿损失义务的形式)和刑事处罚的混合措施。
版权还包括创作者的某些精神权利,其中包括被承认为作品作者的权利,以及防止作品以可能损害创作者声誉的方式被篡改的权利。
版权与专利的区别
版权保护的一个独特之处,使其区别于专利保护,在于它在作品被创造出来的那一刻就自动产生。这意味着,在软件程序的源代码被编写出来的那一刻,其作者就被法律承认,并自动获得版权保护,无需任何形式或注册手续。
精神权利是永久性的,这意味着作品的作者将永远被承认,即使在其去世后。这些权利不能被转让,也不能被放弃。
相反,经济权利具有时间限制。例如,在意大利,它们持续于作者的整个生命周期,并在其去世后延续70年,之后权利即告终止。经济权利也可以被转让,即可以转移给第三方。
此外,法律赋予作者的经济权利有很多,且彼此独立。这意味着,例如,我可以选择授予第三方在一定副本数量或特定条件下使用程序的权利,同时保留修改程序的专有权,从而禁止第三方修改源代码。同样,我也可以授予第三方修改程序的权利,但保留向公众分发程序的权利,等等。
合同中的注意事项
由于经济权利是通过合同转让的,因此在规范涉及软件和受版权保护的智能系统开发的权利的合同关系时,必须高度关注知识产权的规定方式。
例如,当开发者将某些经济利用权转让给一家生产智能系统的公司时,合同最好详细规定转让发生的条件、公司获得哪些权利,以及哪些权利最终仍保留在软件作者手中。
间接保护方式
最后,应考虑的是,对公司具有商业价值的知识产权、商业秘密,也可以通过合同条款进行间接保护。这些条款可以对所有获知应被视为机密信息的第三方,施加特定的保密或竞业禁止义务。
总结

本节课中,我们一起学习了知识产权保护对公司的重要性,并深入探讨了版权如何保护人工智能系统底层的软件。我们明确了版权自动产生、涵盖经济与精神权利、且与专利保护有本质区别。同时,我们也了解了在商业合作中,通过合同明确约定权利归属与转让条件至关重要。
048:人工智能与可专利性


在本节课中,我们将回到人工智能系统知识产权这一主题。知识产权包括任何智力或精神的创造,并分为两大类:版权(包括任何文学和艺术作品)和工业产权(包括专利、商标和设计)。工业产权的基本特征是具备工业应用性。

在上一节关于知识产权的课程中,我们学习了人工智能系统可以作为创造性发明受到版权保护。
现在,我们需要探讨人工智能系统是否以及在多大程度上可以获得专利。
什么是专利?
首先,专利是一种法律文件,授予发明人在有限时间内(通常为20年)的权利,以防止他人在授予专利的国家内未经许可制造、使用或销售其发明。

专利具有地域性。通常,发明人需要向每个感兴趣国家的专利局单独申请。为了简化流程,也可以向位于日内瓦的世界知识产权组织或位于慕尼黑的欧洲专利局申请。欧洲专利本质上是一组同时授予所有欧盟成员国的国家专利。
专利的权利内容
与版权类似,专利也授予精神权利和经济权利。
- 精神权利:指被承认为发明作者的权利。这项权利始终且仅属于发明人本人,在其去世后,其后代也可主张。精神权利不可转让给第三方。
- 经济权利:指对专利发明进行经济利用的权利。这项权利可以出售、许可或以其他方式转让给第三方。
经济权利通常属于工业发明的发明人,除非该发明是在履行合同或雇佣关系期间完成的,且发明活动本身就是合同或关系的标的,并且发明人因此获得了报酬。在后一种情况下,经济权利属于雇主或委托人。
可专利性的条件
现在,让我们看看一项发明必须具备哪些条件才能获得专利。
- 新颖性:一项发明是新颖的,如果它不构成现有技术的一部分。即在提交专利申请之前,没有以书面或口头形式、通过使用或任何其他方式为公众所知。
- 创造性步骤:这意味着在发明所属技术领域内,具备普通技能的人不能认为该发明是显而易见的,也不能轻易地从公开可获得的信息中推导出来。
- 工业实用性:这意味着该发明必须能够在工业或制造过程中使用。
人工智能与专利挑战
在人工智能领域,2019年发布的《WIPO技术趋势报告》指出,2013年至今,人工智能系统的专利申请数量呈指数级增长。
然而,考虑到可专利性的要求,并非所有人工智能组件都能获得专利。事实上,我们还必须考虑到,根据法律,某些内容不能被视为可专利的发明,例如:
- 发现、科学理论和数学方法(例如,单纯的算法)。
- 执行心理活动、玩游戏或做生意的方法、规则(例如,商业方法)。
- 计算机程序(例如,源代码)。
- 信息呈现。
上述方法、计算机程序和活动,如果仅以其本身的形式主张,则不能获得专利。换句话说,抽象的或单纯的指令集合是不可专利的。它们必须与技术手段紧密结合,并且必须能够解决技术问题。换言之,它们必须能够应用于工业领域。
我们可以立即注意到,这种限制极大地影响了基于人工智能的系统的可专利性。根据欧盟委员会的定义,人工智能系统可以仅由在虚拟世界中运行的软件构成(例如,语音助手、图像分析软件、搜索引擎、语音和面部识别系统),也可以将人工智能集成到硬件设备中(例如,高级机器人、自动驾驶汽车、无人机或物联网应用)。
专利实践中的考量
正如WIPO的专利申请指南所强调的,人工智能和机器学习(如神经网络、遗传算法、支持向量机、卷积神经网络、核回归和判别分析)基于计算模型和分类、聚类等算法,这些本身具有抽象的数学性质。
然而,它们在各个技术领域的实际影响不容忽视。因此,WIPO指南指出,对于人工智能,即使它们基于抽象的计算模型或分类方法,只要满足以下条件,仍可能具有可专利性:
- 它们有助于解决技术问题。
- 其技术特征涉及创造性活动,与现有技术相比做出了新的、创新的贡献,即使对于该领域的技术人员而言也是如此。
- 专利申请在描述人工智能解决技术问题的能力方面是清晰和充分描述的。

这意味着,通过阅读专利说明书,该领域的专家必须能够实施该发明。

总结

在本节课中,我们一起学习了人工智能系统的可专利性问题。我们首先回顾了专利的定义、地域性和权利内容。然后,我们详细探讨了获得专利必须满足的三个核心条件:新颖性、创造性步骤和工业实用性。最后,我们分析了人工智能技术在专利申请中面临的主要挑战,特别是其算法和模型的抽象数学性质。关键在于,人工智能发明必须与具体的技术手段结合,并致力于解决明确的技术问题,才能跨越可专利性的门槛。
049:AI创作作品的保护

概述
在本节课中,我们将探讨由人工智能系统创作的作品,其知识产权归属问题。我们将分析现有法律框架下的挑战,并介绍几种可能的解决方案。

上一节课我们探讨了人工智能系统本身如何受版权法保护。本节中,我们将尝试理解,由人工智能创作的知识作品,其知识产权归属于谁。
这个问题不涉及人类作者借助或简单或复杂的软件创作作品的情况,因为在此类情况下,创造性的投入始终可归因于人类个体。本问题关注的是那些具备机器学习类型AI组件、能够自主生成可能独立于程序员输入内容的程序。
实际上,我们讨论的是已经发生的事情。目前已经存在能够独立创作音乐、艺术作品或文学作品的人工智能系统,它们通过学习处理成千上万首音乐、艺术品或诗歌来生成作品。
令人印象深刻的是,AI创作的作品与人类智能创作的作品极为相似,并无太大差异。
然而,在此背景下,与我们之前讨论的AI行为所致损害的赔偿责任领域类似,现有立法并不完善。因此,基于现有法律框架解决此问题并不容易。
意大利的立法(与大多数外国现行法律相似)似乎预设只有自然人才能成为作者,从而成为知识作品的道德权利和经济权利的原始所有者。因此,毫无疑问,人工智能作为一个客体而非人类主体,即使它是作品的作者,也不能成为经济权利的受益者,更不用说道德权利了。
在外国的法律体系中,唯一明确考虑到智力作品可能是计算机创造性活动结果的是英国立法。事实上,1988年的《版权、设计和专利法案》规定,由机器创作的作品,其经济成分的知识产权归属于为使机器能够生成该作品而进行必要配置的人。该法案明确规定,对于计算机生成的文学、戏剧、音乐或艺术作品,作者应被视为为作品的创作进行必要安排的人。
当然,英国立法所概述的方向,可能是我们国家立法和欧洲立法可以遵循的备选方案之一,但它并非唯一选择。存在一些学说理论,可归纳为三种主要取向。
以下是三种主要的理论取向:
- 否认保护:第一种可能的方法是,否认对人工智能创作的作品提供任何形式的知识产权保护。在缺乏具体立法措施的今天,如果我们想坚持对法律条款的字面解释,这是最可接受的理论。然而,这可能会阻碍对智能系统实施和使用的投资。
- 授予AI法律人格:第二种可能的方法,由那些希望授予AI法律人格的人支持,意味着承认人工智能本身拥有权利。如果说第一种理论从经济角度看吸引力不大,那么这第二种理论目前看来过于未来主义,且从法律角度难以充分证明其合理性。
- 折中方案:第三种可能的方法介于前两者之间,在我们看来,无疑比其他方案更可取。它寻求应用版权法(即使需要修订和更新),适用于所有智能系统活动的结果在某种程度上依赖于人类的选择和输入的情况。也就是说,这些结果终究是由个人或群体所期望的。
但遵循这种方法,谁将有资格享有版权法规定的权利,特别是AI创造性活动所产生的知识作品的经济利用权呢?
可以考虑以下三种可能性:
- 权利所有者可能是发明、创造和生产该机器的人。
- 权利所有者可能是以某种方式设置机器功能、使其能够创作该作品的人。
- 权利所有者可能是机器的所有者(无论是通过向生产商或经销商购买获得),并且不论是谁设置了机器,只要是他开始了作品本身的经济利用。
根据现行法律,并不存在一个正确的解决方案。因此,知识产权领域是欧洲议会呼吁欧盟委员会提交立法提案以调整现有法律、适应AI技术发展的领域之一。
其目的当然是避免成员国立法之间的冲突,并鼓励对这些技术的投资。
总结


本节课中,我们一起学习了由人工智能创作作品的知识产权归属难题。我们了解到,现有法律通常预设人类作者身份,导致AI作品的保护存在空白。我们探讨了英国立法的特殊规定,并分析了三种主要的理论取向:完全否认保护、授予AI法律人格以及寻求将权利归属于相关人类参与者(如开发者、配置者或所有者)的折中方案。目前尚无定论,但欧盟层面正在推动立法以适应技术发展,旨在统一规则并鼓励创新投资。
050:AI系统中的数据处理与GDPR合规

在本节课中,我们将要学习人工智能(AI)系统如何处理数据,以及如何确保这种处理符合欧盟《通用数据保护条例》(GDPR)的规定。我们将探讨AI与大数据、物联网(IoT)的关系,并重点解析GDPR中的关键原则,如“设计保护隐私”和“默认保护隐私”,以及数据最小化、目的限制等核心要求。
AI、大数据与物联网的关联
如今,人工智能的应用使得数据的收集和处理达到了前所未有的规模。
人工智能与大数据、物联网之间存在着双向联系。一方面,由互联设备和系统产生的海量数据,需要使用能够从中提取价值的算法。另一方面,正是这种数据的极大丰富,使得算法变得越来越可靠和智能。
然而,这种关系也带来了一些特定的风险。特别是,当这些数据根据法律被认定为个人数据时,存在被非法或随意滥用的风险。因此,有必要应用相关法律来规范通过此类系统进行的数据处理。
GDPR:技术中立原则
在这一领域的参考法规是GDPR(欧盟第2016-679号条例)。根据所谓的“技术中立原则”,其规定必须适用,无论个人数据处理所采用的手段和方法如何。因此,它也适用于通过AI系统进行的处理。
设计保护隐私与默认保护隐私
GDPR第25条确立了“设计保护隐私”和“默认保护隐私”的原则。该条规定,数据控制者(即AI的开发者与运营者)必须通过设计和默认设置,确保其系统在处理个人数据时遵守相关规定。
这具体指的是什么呢?以下是几个最重要的方面:
- 目的限制与存储期限:GDPR第5条明确规定,个人数据的收集必须有具体、明确和合法的目的,并且不得以与这些目的不相容的方式进行进一步处理。此外,数据的保存时间不得超过实现处理目的所必需的时间。
- 数据最小化原则:该原则要求,只应处理与收集目的相关的必要数据。因此,AI系统随意收集和处理数据是不合法的。
然而,当前对物联网的广泛访问及其收集处理海量数据的强大能力,可能会危及对这些原则的遵守。
实现合规的关键措施
从数据最小化的角度来看,主要问题在于AI系统能否对收集的数据进行筛选,只保留提供所请求服务所必需的部分。

一种降低处理侵入性的有效解决方案是数据的假名化和匿名化。通过这种方式,不仅AI系统收集的数据应仅限于该处理类型所必需的数据,而且在可能的情况下,应以无法识别数据主体的方式进行收集。
关于目的和存储期限,不仅需要用户真正了解其数据是用于使用系统的特定目的,还需要物联网系统能够仅为实现这些目的而处理所收集的数据。
人类干预权:禁止完全自动化决策

我们必须强调最后一个非常重要的方面。GDPR基于一种非机器中心主义的视角来看待人与机器的关系,以避免机器凌驾于人类之上,并确保最终决定权始终属于人类。
因此,GDPR第22条禁止所谓的“完全自动化决策过程”。它规定,数据主体有权不接受仅基于自动化处理(包括用户画像)所作出的、对其产生法律效力或类似重大影响的决定。
换句话说,任何人工智能技术,如果无法保证数据主体获得人工干预、表达意见和质疑自动化决定的权利,都不能被视为符合GDPR。
总结与展望
由此可见,对于AI系统的数据处理,我们并非没有法规保护。我们可以认为,GDPR可能是一个非常合适的工具,用以规范AI系统数据处理中的不确定性。

然而,由于可能涉及的生活领域和物联网工具相当复杂,正确应用这些原则必然需要根据具体情况进行个案分析,考虑每个使用人工智能技术的产品的独特性。

在本节课中,我们一起学习了GDPR如何为AI时代的数据处理提供法律框架。我们理解了数据最小化、目的限制等核心原则,以及确保人类在自动化决策中拥有最终决定权的重要性。合规的关键在于将隐私保护理念融入AI系统的设计与默认设置中。
人工智能:概述 专项课程:P9:算法统治对基本自由的风险——从剑桥分析公司案例谈起


在本节课中,我们将探讨人工智能系统在决策过程中可能带来的偏见与歧视风险,以及这些风险如何威胁到个人的基本自由与权利。
上一节我们讨论了人工智能技术对保密性和隐私带来的风险。本节中,我们来看看机器使用并不必然保证公正性这一事实。实际上,我们常常认为这些系统相对于我们委托其作出的决策是完全中立的。一台机器在作出决策时,在我们看来似乎完全没有偏见。
但事实果真如此吗?实际上,人工智能系统总是基于人类设计的算法而开发。这些算法也让机器能够基于从人类接收的信息,发展自我学习机制。简而言之,无论是在创建还是使用人工智能系统的过程中,人类的贡献都至关重要。
正是在这种背景下,可能发生所谓的算法偏见。如果缺乏适当监控,它们甚至可能导致社会歧视。算法偏见以及人类认知偏见(即判断的偏差模式)的影响,是使用智能系统的一些弱点。
例如,在面部识别技术领域,一些研究发现,对于浅肤色男性的识别准确率约为99%,而对于深肤色女性的识别准确率仅为35%。这是因为在全球范围内,支撑识别系统的人工智能算法主要是基于白人或亚洲男性的数据开发的。
在这方面,基于隐私设计的方法变得至关重要,我们将在下一课中详细讨论。在开发智能技术时采用这种方法,可以最大限度地降低系统在回答特定问题时使用潜在歧视性参数的风险,例如性别、种族、宗教、政治或工会党派归属、国家财富等。
但是,算法不仅会受到人类的影响,它也可以反过来影响接触它的个体的观点,从而对用户造成认知偏见。从这个意义上说,可以回想一下曾引起广泛关注的剑桥分析公司案例。这家政治咨询公司利用其掌握的个人数据,来影响相关数据主体的选举选择。
公民往往无法立即意识到这些情况。试想一下所谓的“假新闻”领域。如果说人工智能可以是防止其传播的有效工具,那么同样真实的是,相反,人工智能系统也可能成为其载体。实际上,人工智能系统的设计旨在分析用户画像,选择要向他们推送的信息,并可能影响他们的选择(包括政治选择)。这种选择可能与新闻的真实性无关,而仅仅旨在将后者与用户的偏好关联起来。
这就是所谓的过滤气泡:用户只接收到一个受限的新闻和信息圈,即那些最接近他们偏好的内容。在这方面,有人提出了“算法统治”一词,用以指代一种基于算法及其决策主导的社会形式,强调了内容与信息过度个性化所带来的风险。这种个性化可能达到限制我们对自身生活、数据使用以及最终选择的完全自决的程度,同时也带来了经济权力集中在那些能够实施和控制最先进算法者手中的反竞争风险。
算法统治最明显的危险之一就是所谓的大规模监控。这不仅体现在对人员流动的监控上,也体现在对人们行为的监控上。一个标志性的案例是中国,其建立了旨在通过计算机制奖励最“有德行”公民的社会信用体系,例如,因为他们从未有过法律问题、没有债务等。


在这些情况下,尽管一个系统可能在一方面看似适合鼓励公民的德行行为,但在另一方面,它也可能变成一个能够在公民之间制造不公平待遇差异的系统。此外,在这种背景下,隐私方面的“交换条件”对公民而言将更为严重,因为国家有可能从保护公民免受其数据处理相关滥用的实体,转变为控制这些数据并基于此制定自身政策的实体。
从以上所述可以清楚地看到,算法固有的偏见可能导致错误甚至歧视性自动化决策的风险。为了避免这种后果,解决偏见的方法或许就在于其根源本身:永远不要放弃人类的介入。

然而,这种介入必须在至少两个层面进行:
- 在立法层面:制定能够真正保护个人并为其基本权利和自由提供保障的规则。法律必须在人机关系中确立一种以人为本的愿景,即技术服务于个人,而非相反。
- 在操作层面:强制要求人类对人工智能系统的决策进行持续监督,以验证其是否符合公认的道德和法律原则。
在这方面,下一课我们将讨论如何设计和开发符合《通用数据保护条例》的智能系统的措施。

本节课中,我们一起学习了算法偏见如何产生、其表现形式(如面部识别中的准确率差异、过滤气泡),以及它如何通过影响个人决策(如剑桥分析公司案例)和助长大规模监控(如社会信用体系)来威胁基本自由。我们认识到,解决这些风险的关键在于确保人类在立法和操作层面的有效介入与监督。
052:确保AI符合法律与隐私框架

在本节课中,我们将学习如何确保人工智能系统在处理个人数据时,符合以《通用数据保护条例》为核心的法律与隐私框架。我们将探讨GDPR的关键原则及其在欧盟最新AI法规提案中的体现,并了解实施合规的具体步骤。
上一节我们介绍了AI与大数据的关系。本节中,我们来看看GDPR为AI系统处理数据引入的核心合规措施。
GDPR首先强调的一项规定是 “通过设计和默认方式保护隐私” 的义务。具体而言,这意味着公司和组织在设计数据处理操作的最初阶段,就应实施技术和组织措施,从而从一开始就保障隐私和数据保护原则。默认情况下,应确保以最高隐私保护标准处理个人数据。
以下是“通过设计和默认方式保护隐私”的具体要求:
- 仅处理必要的数据。
- 设定较短的数据存储期限。
- 限制数据的可访问性,确保默认情况下个人数据不会被无限数量的人员访问。
这些原则同样体现在最新的AI法规提案中。该提案要求,对于高风险AI系统,应从设计阶段就采取措施,确保数据管理和处理是适当、安全且成比例的。
了解了设计阶段的隐私保护后,我们接下来探讨一个对AI系统运作方式有根本性影响的GDPR原则:“免受自动化决策约束的权利”。
该权利保护个人免受对其产生重大影响的、完全自动化的决策(包括用户画像)的约束。考虑到AI系统的决策过程通常是完全自动化且不涉及人工干预的,这一GDPR条款在实践中影响深远。遵守该条款意味着需要限制AI的自主决策能力,至少要为人工监督或干预保留空间。
除了限制自动化决策,GDPR还要求任何个人数据处理都必须辅以安全措施。这些措施必须基于风险评估来量身定制。
这意味着不存在普遍适用的标准或最低措施,安全措施必须根据技术发展水平不断更新。这一GDPR核心原则与上述“隐私设计”原则相辅相成,也被纳入了最新的AI法规提案。提案规定,必须为高风险AI系统建立、实施、记录和维护风险管理系统。
除了这种常规评估,GDPR还规定,当使用新技术的处理活动可能对个人权利和自由造成高风险时,必须进行一项特定的 “数据保护影响评估”。
DPIA的特殊性在于,如果评估结果显示处理活动存在高风险,则必须通知监管机构,并在该机构对评估的充分性及风险最小化措施提出意见之前,暂停处理活动。这对于经常与其他系统(包括第三方系统)交互、从而指数级增加数据意外泄露和丢失风险的AI系统而言尤为重要。
为了确保个人数据得到妥善保护,AI系统数据控制者采取的所有措施,也必须在整个供应链中得以实施。
为此,数据控制者应设定严格的合同条款和惩罚措施,以约束任何参与AI系统使用和数据处理的供应商,并确保对供应商实施的手段和安全措施进行控制,同时保留对供应商进行审计和检查的权利。
数据保护权还涉及GDPR规定的两个关键方面,AI法规提案中也提到了它们:透明度和数据主体对其数据的控制权。
这意味着必须以清晰易懂的方式让个人确切地知道谁、如何以及为何处理其个人数据。此外,在特定情况下(包括用户画像),如果未经数据主体事先同意,处理活动即不合法。数据主体必须被保证随时可以撤回同意。
透明度原则也意味着数据主体有权访问、更正并要求删除他人处理的自身数据。
最后,为尽可能保障数据主体的权利和自由,必须妥善管理 数据泄露事件。
根据GDPR,如果因控制者安全系统遭破坏或发生事故导致个人数据丢失、被篡改或被盗,应立即启动涉及所有数据处理供应商的内部调查,并采取任何措施以尽可能限制或消除相关损害。事实上,任何数据泄露都必须在知悉后的72小时内通知监管机构。
除非经评估认为数据泄露不太可能对个人的权利和自由造成风险。如果评估认为存在高风险,数据控制者还必须将数据泄露事件通知受影响的个人(数据主体)。

本节课中,我们一起学习了确保AI符合法律与隐私框架的关键步骤。我们探讨了“隐私设计”、限制自动化决策、实施安全措施与风险评估、进行数据保护影响评估、管理供应链合规、保障透明度与控制权,以及妥善应对数据泄露。理解并实施这些措施,对于开发和使用合法、合规且值得信赖的人工智能系统至关重要。
053:从IT视角看人工智能 🧠


欢迎来到《人工智能技术与平台》课程。
信息技术与人工智能之间存在着怎样的关系?我们如何利用IT视角来描述和刻画基于人工智能的系统?在本节课中,我们将通过探讨信息技术与人工智能之间紧密而富有成效的关系来解答这些问题。
为了达成这个目标,我们需要先退一步,理解什么是人工智能。
什么是人工智能?

2018年,米兰理工大学人工智能观察站将人工智能定义为计算机科学的一个领域,致力于研究开发具有人类典型能力的硬件和软件系统。
此类系统能够通过自主决策来追求特定目标,而这些决策在此之前通常由人类做出。
具有人类典型能力的硬件和软件系统。因此,一个基于AI的系统同时包含硬件和软件两个层面。更精确地说,我们可以进一步将软件区分为软件应用和软件框架、平台与工具。
从这个视角出发,我们可以说一个基于AI的系统包含:
- 硬件:即所有可用的物理资源。
- AI应用:即系统存在的目的。
- 中间层:包含位于硬件和应用之间的框架、平台和工具。
IT架构的启示
那么,这三个层面让我们联想到了什么?它们让我们联想到典型的计算系统IT架构,该架构同样包含硬件和软件环境的两个层面(即操作系统和应用程序)。

具体来说,借助这个IT视角,我们可以定义:
- 硬件:系统中所有可用的物理资源。例如,用于计算、存储数据和应用程序以及网络连接的资源。
- 软件应用:在系统中运行的应用程序。
- 软件环境:提供所有用于控制物理资源的程序和库,以及构建应用程序的工具。
AI系统的技术架构
现在,牢记这个视角,我们可以回到AI,并从技术角度理解基于AI的系统是如何组织的。

底层:AI硬件 🖥️
在底层,我们有AI硬件,它包含所有旨在支持AI算法学习和推理的硬件资源。
我们将看到,硬件资源范围广泛,从大规模数据中心到微小的物联网设备,在计算能力、可用内存和功耗方面有时存在数量级的差异。
我们将看到,这些在计算、内存和能耗方面具有截然不同技术限制的设备家族,将需要特定的AI技术。
在这一层,我们还能找到AI硬件加速器,例如GPU、TPU和FPGA,它们是AI世界的一场革命性突破。我们将了解硬件加速器的重要性及其工作原理。
上层:AI应用 📱
在上层,我们有AI应用。这是系统存在的原因。例如,我们可以有一个在智能音箱中运行的、用于识别用户语音命令的AI应用;或者一个在智能汽车中运行的、用于检测行人存在的AI应用。
在这里,AI应用的可能性仅受AI开发者想象力的限制。
中间层:AI框架、平台与工具 🛠️
在中间,我们可以找到AI框架、平台和工具。这一层包含所有技术解决方案,例如,旨在支持AI应用在AI硬件上有效且高效运行的软件库和工具。
这一层的目标是双重的:
- 一方面,它通过提供硬件资源的抽象来屏蔽底层硬件的复杂性。
- 另一方面,它提供所有工具,帮助AI工程师和开发者轻松设计和开发AI解决方案。
我们将看到,在这一层中可以找到不同范围的技术和解决方案。例如,这里可以找到所有著名的机器学习和深度学习框架,如 Scikit-learn、TensorFlow、PyTorch 和 MXNet。
此外,在这一层中还能找到所有支持AI应用有效且高效开发和运行的软件基础设施,例如云计算系统以及像 Spark 和 Hadoop 这样的计算框架。
AI与云的关系 ☁️
机器学习解决方案在云中带来的革命性方法,被证明是普及AI、使其可供广大研究人员和开发者使用的关键因素。
这是一个特别有趣的点,本课程将通过探索云中支持机器学习和深度学习的三个计算层级来深入探讨:基础设施即服务(IaaS)、平台即服务(PaaS) 和 解决方案即服务(SaaS)。
课程目标总结
总而言之,在本课程中,我们将探索:
- 支持机器学习和深度学习进行学习与推理的硬件。
- 用于有效且高效设计和部署AI应用的AI框架、平台与工具。

课程范围说明
同样重要的是,需要明确本课程不追求的目标。我们的目标不是对框架、平台和工具进行排名。
之所以排名不在本课程范围内,是因为日新月异,每天都有新的解决方案和新技术出现,每一种都有其自身的特点、优点和缺点。此外,特定解决方案的优缺点严格取决于算法以及应用程序预期运行的软件环境(例如,是计划在云端、智能手机上还是在微型物联网设备上运行的AI应用)。
明确了以上内容,我非常高兴欢迎大家学习这门关于人工智能技术与平台的课程。


让我们开始吧!🚀
054:概述

在本节课中,我们将概述用于人工智能的硬件技术,以及它们如何影响AI应用。
我们之前了解到,AI系统包含AI硬件层、中间AI软件层(包括AI框架、平台和工具)以及运行AI应用的顶层。本节中,我们将详细阐述适用于AI的不同硬件解决方案家族,并看到这些家族涵盖了从受限于计算能力、内存和功耗的微型物联网设备,到包含多个高性能服务器用于计算、存储和联网的大型数据中心。
硬件技术解决方案示例
以下是我们可以找到AI应用的一些技术解决方案示例。
- 在我们的家中,如今有智能传感器能够测量物理量和环境量,以控制旨在提升人们舒适度的家庭自动化系统。
- 我们越来越多地通过虚拟助手与在线系统互动,这些助手能够识别人们的指令并代表他们执行操作。
- 智能汽车正从实验室走向我们的道路。这类新一代汽车包含多个直接在车上并行运行的AI算法,例如用于检测行人或识别路标。
- 股票市场预测或个性化营销建议是需要大量计算和内存的AI应用,因此它们的执行通常被转移到云端或大型数据中心。
这些只是广泛的AI硬件技术中的几个例子。但它们揭示了AI可以在任何地方执行的事实。因此,我们周围的所有技术解决方案都可能成为AI可行的技术资产。但在这样做时,我们必须考虑每个特定技术解决方案的性能和技术限制。微型设备将能够支持执行简单的AI算法,而更强大的技术解决方案将能够支持更复杂、更有效的AI算法。
我们将展示,最有前景的观点不是将这些单元视为独立设备,而是技术正朝着一个由多个单元组成的生态系统发展,每个单元都参与AI计算。
硬件技术家族分类
现在,让我们进一步尝试对可用的AI硬件技术进行形式化分类。
我们可以将可用的AI硬件技术总结为五个主要家族:数据中心、边缘计算系统、个人计算机、嵌入式个人计算机、物联网设备。
让我们从第一个家族——数据中心——开始分析。它们代表了最强大、性能最高的技术解决方案,因为它们包含用于计算、存储和联网的大规模高性能服务器。从这个角度看,数据中心是云计算范式的参考技术解决方案。这是一个关键点,因为数据中心与云计算之间的相互作用在所谓的“AI即服务”方法中扮演着关键角色,通过提供机器学习解决方案即服务、机器学习平台即服务和机器学习基础设施即服务来实现。我们将在后续课程中详细探讨这些方法。
第二个家族是边缘计算系统。它们是该领域的新参与者。边缘计算旨在通过提供计算和存储能力,在数据产生的地方附近处理数据,从而将云“移到地面”。例如,智能汽车或工业4.0中的智能制造就是这样的技术场景,其中数据以高频率采集,并且这些数据必须在本地快速处理,以提供有效且高效的反应,例如让汽车减速或解决技术生产问题。
接下来,我们找到第三个家族:个人计算机。这是与我们最接近、最熟悉的技术解决方案。在我们的个人计算机中,有用于检测垃圾邮件的智能算法,以及更多旨在支持用户和业务的算法。
最近的发展显示了第四类AI技术的重要性:嵌入式个人计算机。这些设备能够有目的地在其环境中运行,例如移动设备、智能音箱。这类技术解决方案正变得越来越重要,因为它们通常提供了用户与基于云的计算系统之间的交互接口。因此,AI可以直接在设备上运行,或者设备专门用于通过麦克风、摄像头或加速度计等采集数据,而AI处理则在云端进行。
最后,物联网设备是硬件技术的最后一个家族,代表了在环境中普遍运行的微型、无处不在的设备。通常,这些设备由电池供电,计算通过微控制器进行。此外,可用内存和闪存的严重限制显著影响了运行的AI应用。尽管存在这些限制,物联网仍是一个非常具有前景的技术解决方案,用于分布式智能和支持所谓的“智能无处不在计算”。
在接下来的课程中,我们将通过描述每个家族的特性、参考应用、优点和缺点来详细分析这些技术家族。
此外,我们还将看到,技术演进不仅包括这些技术家族,还包括旨在加速AI算法执行的特定硬件设备。
总结

本节课中,我们一起学习了人工智能硬件技术的概述。我们了解了AI可以在从微型物联网设备到大型数据中心的广泛硬件平台上运行,并正式介绍了五个主要的硬件技术家族:数据中心、边缘计算系统、个人计算机、嵌入式个人计算机和物联网设备。每个家族都有其独特的性能特点和应用场景,共同构成了一个支持“智能无处不在”的生态系统。在后续课程中,我们将深入探讨每个家族的具体细节以及用于AI加速的专用硬件。
055:技术演进与人工智能革命 🚀


在本节课中,我们将探讨硬件与软件之间的协同作用对于实现高效人工智能应用的重要性。
硬件与软件:一体两面 🤝

从人工智能的视角来看,硬件和软件是同一枚硬币的两面。我们首先通过审视一系列不同的技术解决方案来分析这种协同关系。
以下是构成我们当前计算生态系统的技术解决方案,它们或显性或隐性地始终参与其中:
- 物联网设备
- 嵌入式个人电脑
- 个人电脑
- 边缘计算系统
- 数据中心
技术在AI革命中的关键作用 💡
那么,这些技术对于人工智能革命究竟有多关键?让我们看一些例子。
数据中心凭借其强大的计算和存储能力,一直在人工智能领域,尤其是在训练和推断大型神经网络方面,扮演着至关重要的角色。例如:
- 数据中心训练了IBM Watson,该系统在2011年赢得了电视智力竞赛节目《危险边缘》。
- 数据中心训练了AlphaGo,该软件在2016年击败了世界排名第一的围棋选手。
- 数据中心训练了Libratus,该人工智能在2017年击败了世界顶级的德州扑克玩家。
让我们将目光转向2020年,史上设计规模最大、最复杂的神经网络被提出。这个名为GPT-3的神经网络用于自然语言处理,包含了1750亿个参数。数据中心在GPT-3的训练中起到了关键作用,因为若在普通计算机上训练,将需要数百年时间。

边缘计算系统是自动驾驶汽车和自主机器人等领域的技术解决方案。关于个人电脑,有一个有趣的轶事。我们都知道深蓝,这台计算机在1997年击败了国际象棋世界冠军加里·卡斯帕罗夫。这则惊人的消息开启了人工智能与人类关系的新纪元。有趣的是,深蓝的计算和存储能力与我们今天的个人电脑相当。
最后但同样重要的是,嵌入式个人电脑和物联网系统能够在环境中自主运行,为智能家居与建筑、智慧城市等提供了技术基础设施。智能对象和智能音箱是该领域的相关例子。

应对硬件多样性挑战 🧩

我们提到了硬件与软件的相互作用。但是,我们如何应对可用硬件解决方案如此巨大的技术异构性?我们正从微小的电池供电设备转向大规模数据中心。
那么,包含框架、平台和工具的中间人工智能软件层,如何能在如此广泛的硬件技术范围内运行?答案既简单又复杂。

简单的答案是,我们根据目标参考硬件的不同,拥有不同的解决方案。复杂的答案是,软件的选择严格依赖于硬件,因此需要对人工智能系统进行硬件-软件协同设计。让我们看一些例子。
在数据中心和边缘计算系统中,我们拥有足够的计算和存储能力,可以考虑所有最强大的现成人工智能框架、平台和工具。以下是这些AI软件解决方案的例子:
- TensorFlow
- PyTorch
- Microsoft Cognitive Toolkit
- ONNX
通常,这些解决方案为机器学习和深度学习解决方案提供推断和训练功能。
嵌入式个人电脑的性能低于数据中心和边缘计算系统,它们依赖于简化版的人工智能软件解决方案。以下是适用于嵌入式个人电脑的框架、平台和工具示例:
- TensorFlow Lite
- Core ML
- Azure IoT Edge
- AWS Greengrass
与数据中心和边缘计算可用的方案不同,用于嵌入式个人电脑的人工智能解决方案通常仅提供机器学习模型的推断能力,而这些模型的训练通常在更强大的计算单元上进行。
最后,物联网设备需要专门设计的人工智能解决方案,因为其在计算、内存和功耗方面受到严格限制。为此,必须考虑人工智能框架、平台和工具的近似或量化版本,例如TinyML和STM32Cube.AI。

算法与硬件的演进差距 ⚡️
正如我们所探讨的,人工智能硬件的技术演进已迈出巨大步伐,以支持越来越复杂的神经网络和模型。然而,算法的演进速度更快。
例如,我们之前提到的GPT-3是迄今为止开发并训练的最大网络,拥有超过1750亿个参数。如图所示,这种增长趋势是稳定的,此类神经网络的复杂度每三个半月翻一番。而硬件技术演进的唯一参考是摩尔定律,它估计硬件性能每18个月翻一番。算法演进与技术演进之间的差距是巨大的。

我们如何应对这个问题?答案在于考虑专门为人工智能设计的额外硬件。借助这些专用硬件,我们能够并行化代码并依赖硬件加速操作,从而通过减少推断和训练时间来提升机器学习和深度学习解决方案的性能。
以下是这些AI硬件加速器的例子:
- 图形处理单元
- 张量处理单元
- 现场可编程门阵列
值得注意的是,由于其复杂性和功耗,这些硬件加速器通常出现在数据中心和边缘计算系统中。我们很少在嵌入式个人电脑中找到它们,而物联网设备通常不被视为硬件加速器的可行技术解决方案。
总结 📚

本节课中,我们一起学习了硬件与软件协同对于人工智能应用的基础性作用。我们回顾了从物联网设备到数据中心的不同技术层级,并通过实例看到了硬件能力如何支撑从深蓝到GPT-3等里程碑式AI系统的发展。同时,我们也认识到,面对算法的飞速演进,专门化的硬件加速器(如GPU、TPU、FPGA)对于弥合性能差距至关重要。理解不同硬件平台对应的软件生态(如TensorFlow、TinyML)以及进行硬件-软件协同设计,是构建高效AI系统的关键。
056:云端人工智能的IT架构 🏗️

在本视频中,我们将探讨以下问题:当硬件层是数据中心时,我们如何设计智能系统?换言之,如此大规模、高性能计算基础设施的存在和可用性,将如何影响软件层和AI应用的设计与开发?
从硬件角度看,数据中心包含用于计算、存储和网络的资源与服务器。并行化和可扩展性是支持机器学习和深度学习解决方案在此进行学习与推理的关键能力。高性能CPU以及硬件加速器(例如GPU、TPU和FPGA)是相关的技术资产。


除了计算,高性能存储和网络解决方案(如网络附加存储或存储区域网络)对于克服大型神经网络训练中的主要瓶颈之一至关重要,即需要移动大量训练数据。


在数据中心中,中间的软件层包含三个不同的模块:虚拟化层、计算框架以及机器学习和深度学习框架。


让我们从分析第一个模块——虚拟化层开始。其目标是虚拟化数据中心中存在的计算、存储和网络资源。这种虚拟化能力对于支持云计算模式至关重要,在这种模式下,硬件资源以在线和按需的方式提供给用户。这种能力对于支持机器学习和深度学习中的“即服务”方法也至关重要,即按需激活虚拟计算单元来处理用户提出的机器学习和深度学习请求。
虚拟化通过虚拟机或容器来实现。可扩展性通过按需添加计算、存储和网络虚拟资源,并在不再需要时移除它们来保证。此外,借助这些虚拟化机制,AI开发者可以设计配备AI工具箱、框架以及AI应用的特定软件环境。此虚拟化层的工具示例包括VMware、Xen、KVM、LXC和Kubernetes。

接下来我们看第二个模块:计算框架。计算框架是一个软件层,能够利用虚拟化层来支持大规模数据中心中有效且高效的计算。计算框架的示例包括Hadoop、Spark和Flink。


有趣的是,现成的计算框架在采用的技术和提供的功能上有所不同,但我们可以将其数据架构归纳为五个主要模块:集群管理器、数据处理引擎、数据存储、图计算以及编程语言外壳。


集群管理器是最底层,直接与虚拟化层交互,以管理分布在不同计算单元(无论是虚拟化还是物理的)上的处理任务的分配与协调。集群管理器通常依赖于一个调度器,这是一种软件管理模块,类似于我们操作系统中用于协调个人计算机上运行的处理的调度器。此类调度器的示例包括YARN和Hadoop YARN。

数据处理引擎是负责数据处理的软件模块。该引擎设计为以分布式方式运行,例如,通过将计算分配到集群管理器提供的一组计算资源上,并在需要时集成结果。

例如,当我们需要计算大规模数据集的平均值时,我们可以通过将计算分配到不同的工作节点上来并行化处理,每个节点处理数据集的一个子集,然后数据处理引擎最终聚合计算出的平均值,以提供整个大规模数据集的总体平均值。数据处理引擎的示例包括Spark和MapReduce。
有效且高效的数据存储对于加速机器学习(尤其是深度学习)解决方案的训练和推理至关重要。计算框架的数据存储解决方案示例包括HDFS、HBase、Amazon S3、Cassandra、MongoDB和Spark SQL。这些解决方案通常与集群管理器和数据处理引擎紧密集成。

此外,计算框架为处理特定数据结构(如图)提供了专用工具,并为高级编程语言(如Python、Java、Scala或R)提供了支持外壳。

在分析了虚拟化层和计算框架之后,我们最后来看看机器学习和深度学习框架。它们旨在为AI应用提供机器学习和深度学习解决方案及算法。
具体来说,机器学习框架提供用于分类、回归、聚类、异常检测的AI方法,以及数据整理和数据准备的解决方案。这些框架可能包含也可能不包含神经网络算法。不同的是,深度学习框架专门设计用于处理深度神经网络,这是一种具有大量隐藏层的特定类型的神经网络。

机器学习和深度学习框架可以在计算框架之上运行,也可以作为独立解决方案运行。在计算框架之上运行的机器学习框架示例包括Spark MLlib、BigDL和Mahout,而TensorFlow on Spark、Deeplearning4j和BigDL则是在计算框架之上运行的深度学习框架示例。

不同的是,独立的机器学习和数据处理框架示例包括Scikit-learn、Torch、pandas、NumPy、Matplotlib,而旨在以独立方式运行的深度学习框架包括TensorFlow、Caffe、MXNet、Keras、Theano、Microsoft CNTK和PyTorch。有趣的是,深度学习框架通常能够利用GPU、TPU和FPGA等硬件加速器,而独立解决方案通常组织成库和包。

总结一下,当AI硬件层指向数据中心时,中间的AI软件层包含虚拟化层、计算框架以及机器学习和深度学习框架。最后,上层的AI应用层指向机器学习和深度学习即服务。


这种新的技术范式将在下一个视频中探讨,敬请关注。

本节课总结
在本节课中,我们一起学习了当人工智能系统构建在数据中心硬件之上时,其IT架构的设计。我们了解到,这种架构由三个核心软件层构成:
- 虚拟化层:负责将物理资源(计算、存储、网络)抽象为可按需分配和扩展的虚拟资源,是云计算和AI即服务的基础。
- 计算框架:构建在虚拟化层之上,提供大规模分布式数据处理能力,其核心模块包括集群管理器、数据处理引擎、数据存储等。
- 机器学习与深度学习框架:提供具体的AI算法和模型,可以直接在计算框架上运行,也可以作为独立解决方案运行,并能够利用硬件加速器提升性能。


这种分层架构确保了AI系统能够充分利用数据中心强大的计算、存储和网络资源,实现高效、可扩展的训练与推理。
057:机器学习与深度学习即服务 🚀


在本节课中,我们将探讨机器学习、深度学习解决方案与云计算平台之间日益紧密的集成趋势。
趋势背景
上一节我们介绍了人工智能的基本概念,本节中我们来看看它如何与云计算结合。这种技术与科学趋势的出现有两个主要原因。
一方面,数据中心强大的计算和存储能力,能够很好地满足机器学习,特别是深度学习模型日益增长的计算和内存需求。其需求可用以下公式表示:

计算需求 ∝ 模型复杂度 × 数据规模
另一方面,虚拟化层和计算框架提供了广为人知的“即服务”云计算模式。这种新模式与机器学习和深度学习框架相结合,催生了所谓的“机器学习即服务”和“深度学习即服务”。

服务化基础
有趣的是,这些以“即服务”形式提供的机器学习算法,其基础在于能够通过Web控制台或API,为用户提供开箱即用或可远程训练的模型,从而充分利用数据中心的高性能计算和存储能力。

云上机器学习的优势
但我们必须思考一个关键问题:将机器学习部署在云端有什么优势?
云计算模式能够从两个不同角度简化对机器学习能力的访问。
以下是其主要优势:

- 降低专业门槛:通过“即服务”方式,用户无需具备该领域的深厚专业知识,即可利用基于机器学习的服务。
- 提升可扩展性与可移植性:在虚拟机或容器中设置机器学习项目,可以利用虚拟化和云计算的优势,提高项目的可扩展性和可移植性。
因此,云计算领域的所有主要厂商也都以“即服务”的形式提供机器学习解决方案。
服务的三个层级
在这样的技术背景下,得益于虚拟化机制和云计算解决方案,数据中心正成为MLaaS和DLaaS的新前沿。根据所需的灵活性和团队在AI领域的专业知识,服务可以在三个不同层级上开发。
以下是三个不同的服务层级:
- 机器学习基础设施即服务:在此层级,AI所需的硬件基础设施以服务形式提供,而软件基础设施和AI应用程序则由软件和AI工程师设计和开发。
- 机器学习平台即服务:此层级通过直接提供用于开发AI应用的软件平台,屏蔽了硬件的复杂性。
- 机器学习软件即服务:在此层级,AI应用程序已经在线,可通过Web控制台或API访问,无需设计或开发任何硬件、软件或应用程序。
让我们详细看看这三个层级。
1. 机器学习基础设施即服务
在IaaS for ML中,云服务提供商以服务形式提供AI硬件,而AI和软件设计师则协作开发AI软件和应用程序。
这种方法在设计和开发阶段需要最大的投入,并且要求团队具备较高的AI领域专业知识,但它能保证最高的灵活性,并能实现完全定制的解决方案。
此类服务的例子包括:Amazon EC2、Google Cloud、Azure深度学习虚拟机、IBM GPU裸机服务器。
2. 机器学习平台即服务
在PaaS for ML中,为AI工程师提供了开箱即用的工具箱、库和框架。
这种方法允许将AI硬件的复杂性隐藏在平台内部。因此,AI工程师只需专注于AI应用程序的开发。
这种方法的缺点是,AI工程师使用预配置的环境来训练、调优和托管模型。

此类平台的例子包括:Amazon SageMaker、Azure ML服务、Google Cloud ML Engine、IBM Watson Studio。
3. 机器学习软件即服务
ML软件即服务提供基于机器学习和深度学习的现成解决方案。
此类解决方案的例子包括:Amazon AI服务、Google Cloud AI、Microsoft认知服务、IBM Watson。

在这里,用户无需开发任何代码或研究任何算法。例如,用户可以依赖一个用于图像识别的ML软件即服务,用户只需将图像发送到在线服务,就会收到一个包含图像中所有物体信息的JSON消息。
{
"objects": ["dog", "cat", "tree"],
"confidence": [0.98, 0.95, 0.87]
}

此时,机器学习应用已经存在,用户只需通过Web控制台或API与之交互。
这种方法的缺点是,只能执行预定义的操作或活动。
总结

本节课中我们一起学习了机器学习与深度学习即服务的概念。
总结来说,机器学习与深度学习即服务可以从三个不同的层面来理解:机器学习基础设施即服务、机器学习平台即服务和机器学习软件即服务。我们看到了这三个不同层面的优点和缺点。

此外,在机器学习项目中考虑使用哪个层级,取决于项目所需的灵活性以及项目团队可用的AI专业知识。较低的层级提供最大的灵活性,但需要设计和开发AI软件和应用程序。中间层级通过提供AI软件层来隐藏AI硬件的复杂性,设计者只需专注于AI应用程序。最后,在顶层,有现成的机器学习解决方案可用,但只能考虑预定义的操作和活动。
058:硬件加速器驱动人工智能 🚀


在本节课中,我们将要学习人工智能硬件加速器。随着人工智能解决方案日益复杂,通用计算硬件已难以满足其巨大的计算需求。本节将详细介绍三种主流的专用硬件加速器:图形处理器、张量处理器和现场可编程门阵列,并分析它们各自的特点与应用场景。
人工智能的复杂性与硬件需求 🤖

人工智能已成为许多应用领域的先进解决方案。为了实现这一目标,人工智能解决方案正变得越来越复杂。
我们已经讨论过,深度神经网络复杂性的演变特点是其参数数量每三个半月翻一番。这一趋势已发展到最近推出的用于自然语言处理的GPT3神经网络,其参数超过1750亿个。
技术演进与算法革命的鸿沟 📈
那么技术演进的情况如何?我们唯一的参考是摩尔定律。尽管摩尔定律随时间推移被不断更新和讨论,但它可能有助于我们理解技术是如何演进的。摩尔定律指出,技术性能每18到24个月翻一番。
因此,在技术演进和算法革命之间存在巨大差距。我们该如何应对?我们需要特定的硬件设备来加速人工智能解决方案的训练和推理。这些设备被称为人工智能硬件加速器。
从技术角度来看,目前有三类不同的硬件加速器家族可用:图形处理器、张量处理器和现场可编程门阵列。
三类硬件加速器详解 💡

接下来,让我们详细看看这三类不同的硬件加速器。
图形处理器

图形处理器是专为人工智能设计的硬件加速器,旨在支持数据并行计算。其核心思想是,同一个程序(在我们这里指大规模神经网络的训练或推理)在多个核心上并行执行。
为了实现这一目标,程序指令被转换为矩阵运算,这些运算被并行化到特定的计算核心中执行。
关键特性:拥有大量用于计算的核心是图形处理器的关键技术。得益于这种方法,图形处理器的速度可比中央处理器快一千倍。
此外,在大型数据中心中,可以使用多个图形处理器来进一步加速超大规模神经网络的训练。
在这种特定场景下,计算并非唯一相关点,通信也起着至关重要的作用。需要高性能通信网络来有效协调各个图形处理器的输出结果。
虽然图形处理器非常适合人工智能,特别是机器学习和深度学习,但它们仍可被视为通用设备。更具体地说,它们最初并非专门为机器学习和深度学习而设计。
事实上,图形处理器还用于许多其他应用领域,例如科学计算、图像处理和加密货币挖矿。
张量处理器
那么,我们能否依赖专门的人工智能硬件呢?让我讲一个小故事。几年前,谷歌工程师意识到,如果每位安卓用户每天仅使用三分钟谷歌助手,谷歌就需要将其全球数据中心的规模扩大一倍。可以想象,从技术和经济角度来看,这都是一个关键问题。
因此,工程师们决定从不同角度解决这个问题。与其将可用硬件数量翻倍,不如将硬件专门用于机器学习操作?这就是张量处理器发挥作用的地方,因为它们是专门为执行机器学习和深度学习应用而定制的集成电路。
张量处理器是专门为谷歌开发的机器学习与深度学习框架TensorFlow量身定制的。我们在之前的视频中已经提到过这个流行框架。
自2015年以来,张量处理器与中央处理器和图形处理器一起为谷歌数据中心提供动力。自2015年起,已经推出了三代不同的张量处理器。

以下是各代张量处理器的特点:
- 第一代:被称为TPU v1,是首个提出的张量处理器,仅设计用于执行大规模神经网络的推理。
- 第二代与第三代:TPU v2和TPU v3随后被提出。这两个版本都同时支持推理和训练。值得一提的是,TPU v3是谷歌数据中心首个采用液冷技术的硬件加速器。
现场可编程门阵列
除了图形处理器和张量处理器,现场可编程门阵列也是用于人工智能处理的可行技术解决方案。

现场可编程门阵列的技术核心是能够针对不同的技术场景对硬件进行重新编程。
在这里,逻辑门阵列可以被编程以实现人工智能应用。为了实现这一目标,必须考虑使用特定的硬件编程语言。
硬件加速器对比与总结 ⚖️
上一节我们介绍了三类加速器,本节我们来总结和对比它们的特点。
中央处理器极其灵活且易于编程,但只能用于简单的人工智能模型。图形处理器凭借其高度并行的架构,为大规模人工智能模型和神经网络的训练和推理提供了高性能。但这是以比中央处理器更低的灵活性为代价的。
张量处理器得益于利用专用人工智能硬件的能力,可以为训练和推理提供高性能。张量处理器的缺点在于需要使用TensorFlow框架,并且相对于中央处理器和图形处理器灵活性有限。

最后,现场可编程门阵列能够将人工智能解决方案实现在硬件中。但它们需要特定的编程语言来设计逻辑门阵列,并且相对于其他硬件加速器灵活性较低。
技术视角下的部署场景 🗺️
综上所述,让我从技术角度进行总结。我们看到图形处理器、张量处理器和现场可编程门阵列都可用于人工智能。但这些硬件加速器可以在我们之前描述的人工智能技术解决方案层级中的哪些位置找到呢?该层级包括数据中心、边缘计算系统、个人计算机和嵌入式个人计算机。

以下是各类加速器的主要部署场景:
- 图形处理器:得益于其在灵活性和功耗之间的平衡,图形处理器可以在数据中心、边缘计算系统、个人计算机以及嵌入式个人计算机中找到。
- 张量处理器:由于其高技术要求,张量处理器目前仅存在于数据中心中。
- 现场可编程门阵列:对于现场可编程门阵列而言,数据中心、边缘计算系统和个人计算机都是可行的技术解决方案。


本节课中我们一起学习了驱动人工智能发展的三类核心硬件加速器:通用性强但能效比突出的图形处理器、为TensorFlow定制的专用高性能张量处理器,以及可通过编程灵活适配不同场景的现场可编程门阵列。理解它们各自的特点、优势、局限及适用场景,对于设计和部署高效的人工智能系统至关重要。
059:无处不在的计算——物联网与边缘人工智能


在本节课中,我们将要学习人工智能如何从云端走向边缘,以及物联网和边缘计算在其中扮演的关键角色。我们将探讨云端AI的局限性,并了解将智能处理移至数据产生源头所带来的优势。
云端AI的核心作用与局限
在技术发展历程中,数据中心对于人工智能至关重要。将云计算与AI算法结合,形成“机器学习即服务”模式,极大地简化了设计和部署阶段。开发者无需具备深厚的专业领域知识,即可使用先进的机器学习解决方案。同时,这种模式也支持解决方案的快速市场化和规模化。
然而,基于云计算的AI方法也存在一些缺点。
- 高带宽与持续连接需求:将所有数据传至云端处理需要高带宽和永久性的网络连接。这在网络稀缺或缺失的应用场景中是一个技术挑战。
- 高能耗:数据传输阶段的功耗远高于数据采集和处理阶段。
- 隐私与安全问题:当涉及个人或敏感数据时,将数据上传至云端可能引发隐私或安全风险。
- 延迟问题:采集数据、上传至云端处理、再等待结果返回,这一过程会引入不可预知的延迟,影响决策速度。这使得基于云端的AI处理在需要实时或近实时决策(如发出警报或检测潜在危险情况)的应用场景中不可行。
迈向边缘:将智能处理移至数据源头
为了解决上述问题,当前科技趋势在于将处理能力,特别是智能处理能力,尽可能地移动到数据产生的地方。
上一节我们介绍了云端AI的局限,本节中我们来看看如何将智能处理从云端“下沉”到地面。
我们已经分析过,支持边缘AI的硬件主要包括物联网设备、嵌入式个人电脑和边缘计算系统。这些技术家族的核心在于能够以普适的方式在现场运行。它们的计算和内存能力、传感器、执行器或通信模式可能各不相同,但都具备在现场直接运行AI算法的能力。
针对物联网、嵌入式PC和边缘计算系统,人工智能平台包含了所有经过优化的机器学习框架、工具箱和算法库。这些优化考虑了普适设备在计算、内存和能耗方面的限制。此类平台的例子包括:
- TensorFlow Lite
- Azure IoT Edge
- QNNPACK
- AWS Greengrass
这些框架的核心是采用近似机制来降低复杂度,即减少机器学习解决方案的内存占用和计算需求。为实现这一目标,通常会考虑对机器学习模型进行量化和剪枝。我们将在下一个视频中详细探讨这些机制。
边缘AI的优势
现在,让我们聚焦于将AI处理移至数据源头所带来的优势。从AI应用的角度来看,这种方法提供了以下几点好处:
- 提升单元自主性:本地处理数据使得决策可以在本地完成,无需将所有数据传输至云端处理并等待结果。
- 降低决策延迟:由于无需等待云端处理和互联网回传结果,我们可以在数据产生后立即处理和决策。这对于所有实时或近实时应用场景至关重要。
- 减少传输带宽:如果能在本地处理数据,我们只需向云端传输精选的特征或关键信息,从而降低了对传输带宽的需求。
- 提高能效:我们已经讨论过,向云端传输数据非常耗电。减少传输数据量对于提高普适设备的能效至关重要。从能量角度看,本地处理数据远比将数据传输到云端处理再接收结果更加高效。
- 增强隐私与安全性:不将可能的敏感数据移至云端,可以增强我们整个普适系统的隐私和安全性。
分布式智能与无处不在的计算
至此,我们需要回答两个重要问题:我们为AI考虑的是何种硬件?以及我们可以在该硬件上使用哪些AI解决方案?
如果硬件简单小巧,可以考虑简单的AI解决方案。如果硬件性能更强,则可以部署更复杂的AI解决方案。但这里我们必须转变视角,因为普适设备通常在一个由异构硬件或通信能力的设备组成的生态系统中运行。
在这样的普适设备生态系统中,我们可以实现AI解决方案的分布式处理。其中,部分计算由小型设备执行,它们可以对数据进行初步处理,并在需要时请求性能更强的设备来完成剩余的处理。

这使我们进入一个场景:智能处理不再局限于云端,而是分布在设备网络的任何地方。这支持了所谓的智能计算无处不在,它代表了未来几年最具前景的技术和科学计算范式之一。


总结

本节课中我们一起学习了人工智能从云端向边缘迁移的必要性和实现方式。我们了解到,虽然云端AI提供了强大的计算能力和便捷的服务模式,但其在延迟、带宽、能耗和隐私方面存在局限。通过利用物联网、嵌入式系统和边缘计算硬件,并将经过优化的AI框架(如TensorFlow Lite)部署其上,我们可以实现数据的本地智能处理。这种方法带来了更低的延迟、更高的能效、更强的隐私保护以及设备自主性。最终,通过设备间的分布式协作,我们正迈向一个“智能计算无处不在”的未来。
060:嵌入式人工智能概述

在本节课中,我们将要学习人工智能与物联网结合的核心概念,特别是如何为资源受限的物联网设备设计和部署AI应用。我们将探讨其开发流程、硬件软件架构以及关键的模型优化技术。

人工智能和物联网设备可能被视为技术生态系统的两个极端。AI解决方案通常对计算和内存有很高的要求,而物联网单元通常受到可用内存、计算能力和能源的严重限制。嵌入式人工智能的目标正是填补这一鸿沟,这是一个新颖且有前景的研究领域,旨在设计和开发能够在物联网单元上运行的微型机器学习和深度学习技术。

为了实现这一目标,我们将探索开发流程以及包含量化和剪枝在内的近似技术,以降低机器学习和深度学习解决方案的计算负载和内存需求,从而使其能够在嵌入式系统和物联网单元上执行。
物联网AI应用的设计流程
那么,我们如何为物联网设计AI应用呢?设计一个物联网AI应用依赖于一个基于七个不同步骤的开发生命周期。
以下是开发生命周期的七个步骤:
- 数据收集阶段:旨在创建一个代表需要解决的特定应用问题的训练数据集。
- 模型定义阶段:旨在为所考虑的应用确定最佳的机器学习或深度学习模型。
- 模型训练阶段:在收集的数据上训练选定的模型。
- 应用开发阶段:负责为物联网单元设置固件,包括数据采集和预处理步骤,以及机器学习和深度学习推理步骤。
- 编译与构建阶段:为给定的硬件平台(如特定系列的微控制器)编译和构建开发好的应用程序。
- 部署与运行阶段:将应用程序烧录到物联网设备中,设备随后即可运行其应用,即采集数据、通过机器学习推理处理数据并提供输出。
- 监控阶段:可以激活并集成监控服务,以验证和评估物联网设备随时间推移的性能。
值得注意的是,与传统的个人计算机或基于云的应用程序开发不同,从技术角度来看,物联网上AI应用的生命周期分为两个部分。首先,模型的识别和训练通常在拥有足够计算和内存资源的云端进行。其次,受限于内存、计算和能源的物联网单元则只专注于机器学习和深度学习模型的推理阶段。
智能物联网单元的硬件与软件架构
上一节我们介绍了设计流程,本节中我们来看看这类智能物联网单元的硬件软件架构是怎样的。
这里的硬件通常包括一个带有几千字节RAM的微控制器,以及传感器和执行器。物联网传感器的例子包括环境传感器、麦克风、摄像头和惯性测量单元。
软件架构包含三个连续的步骤:
- 预处理阶段:旨在采集和处理数据,使其能够被下一个推理步骤理解。
- 机器学习与深度学习推理阶段:旨在将训练好的模型应用于采集和处理后的数据。
- 后处理阶段:此步骤的输出(例如预测、分类或数据流中异常的检测)随后被后处理,以决定如何做出反应,例如开门、向用户发送消息或发出警报。

物联网AI应用实例

了解了基本架构后,让我们看几个具体的物联网AI应用实例。
- 唤醒词检测:物联网设备识别特定的语音命令以激活进一步的操作或处理,例如“打开灯”。与智能音箱不同,物联网单元通常只能识别有限(有时非常有限)的命令集。关键在于,这个识别阶段是直接在设备上进行的,不需要外部处理步骤或将语音命令发送到云端处理。
![]()
- 人员检测:通过摄像头采集图像,检测阶段直接在设备上进行。
- 手势识别:来自惯性测量单元的数据可用于由物联网单元直接检测和识别人体做出的手势。

应对物联网设备的技术限制
但是,我们如何设计能够适应物联网单元严苛技术限制的机器学习和深度学习解决方案呢?这是一个具有挑战性的问题,因为我们不能简单地将一个复杂的神经网络(例如,需要数百兆字节来存储其参数)压缩到一个微小的物联网单元中。
为了解决这个问题,我们需要三个不同的步骤:
- 重新设计模型架构:我们需要重新设计我们的机器学习和深度学习解决方案的架构,特别是我们的神经网络。这些新的架构在设计时就会考虑通过简化和小型化模型来减少内存和计算需求。最近,该领域已经提出了新的方法来指导这种微型神经网络架构的设计,并考虑其对内存和计算的技术约束。
- 应用近似计算机制:除了用于机器学习和深度学习的微型架构外,通常还会考虑近似计算机制来进一步减少内存占用和计算需求。这类机制的典型例子是量化和剪枝。
- 针对目标硬件平台进行优化:量化和剪枝后的模型可以针对给定的目标硬件平台进行进一步优化。这个步骤通常依赖于硬件,通常通过集成到开发工具链中的专用编译器来完成。
近似计算:量化与剪枝
上一节提到了近似计算,本节中我们重点来看看两种具体机制:量化和剪枝。
量化
量化是指通过改变用于表示神经网络权重的比特数来减少其内存占用。例如,32位浮点权重可以转换为8位整数表示。这减少了神经网络的内存占用,并且还可能加速处理,因为整数运算可能比浮点运算更快。
量化可以在训练期间或训练结束时进行。在这两种情况下,减少内存占用的优势都是显著的,但这些优势可能以量化模型整体精度可能下降为代价。
核心公式/概念:
32-bit 浮点权重 -> 8-bit 整数权重
内存占用减少,可能提升推理速度,但可能影响精度。
剪枝
剪枝旨在通过跳过与处理链相关的某些任务的执行来减少神经网络的计算负载和内存占用。这里的优势相当明显。减少需要执行的层数可以降低计算需求和内存占用,因为与这些层相关的参数无需存储。同样,这种优势可能以模型精度可能下降为代价。
核心概念:
移除神经网络中不重要的连接或神经元,减少模型大小和计算量。
量化和剪枝通常被联合考虑,以进一步减少内存占用和计算需求。
总结与展望
本节课中,我们一起学习了嵌入式人工智能的基本概念。我们了解了为物联网设备设计AI应用的特殊挑战和完整开发生命周期,探讨了智能物联网设备的硬件软件架构,并介绍了几个实际应用案例。最后,我们重点学习了应对设备资源限制的两大关键技术:量化和剪枝,它们通过降低模型精度来换取更小的内存占用和更快的计算速度。
但是,还有没有其他方法可以进一步优化物联网生态系统中的AI解决方案的学习和推理呢?我们将在下一个视频中探讨。敬请关注。

🎼



061:边缘人工智能 🚀

在本节课中,我们将要学习如何将人工智能(AI)技术部署到物联网(IoT)设备上,即“边缘人工智能”。我们将探讨三种核心方法,以克服物联网设备在计算、内存和能源方面的严格限制。
嵌入式与边缘人工智能旨在弥合人工智能与物联网内部世界之间的差距。在之前的视频中,我们看到量化和剪枝是设计机器学习解决方案并部署到物联网设备上的关键工具。但是,我们还有其他方法将AI推向边缘吗?答案是肯定的。具体来说,在本视频中,我们将看到三种不同的方法。

提前退出机制 🏃♂️
首先,我们来看看提前退出机制。深度学习解决方案通常由一系列冗长的处理步骤组成。在这个领域,卷积神经网络(CNNs)是许多图像和视频识别应用中的先进解决方案。

这些CNN的深度架构使它们能够联合学习特征和分类任务。但为了实现这一目标,CNN通常被组织成一系列特征提取层,旨在以知识的层次化表示来处理输入图像。这意味着提取的特征具有递增的复杂性和含义。
这正是提前退出机制(也称为门控分类)发挥作用的地方。其方法是在深度层次化架构中插入中间分类层。目标是增量式地处理输入图像,并在达到足够置信度时立即对其进行分类。这里的置信度可以通过分类的后验概率来衡量。
公式示例: 置信度 = P(类别 | 特征)
得益于这些提前退出机制,我们可以在不需要时跳过某些处理任务的执行,从而在物联网场景中节省计算和能源。
我们看到了如何通过量化、剪枝或提前退出机制来优化物联网的机器学习解决方案。但我们必须始终记住,一个物联网单元通常在由异构硬件架构组成的普适设备生态系统中运行。
分布式推理 🔄
现在,让我们看看将AI推向边缘的第二种方法。这里的重点在于,我们不仅对降低机器学习解决方案的复杂性以适应技术受限的物联网单元感兴趣。实际上,我们希望将CNN的处理层适当地放置在属于普适设备生态系统的物联网单元上。
更准确地说,目标是将CNN层最优地放置到物联网单元上,以最小化从数据收集到决策的推理时间。
这种方法既可以应用于处理路径在设计时确定的传统CNN(如AlexNet、ResNet或YOLO),也可以应用于实现了提前退出机制的CNN(其处理路径根据输入的信息内容在运行时动态构建)。
此外,我们还可以考虑在同一个物联网生态系统中运行具有不同应用目的的多个CNN,它们可能共享一些处理层。例如,在同一个智能家居生态系统中,可能同时存在用于安全监控的AI应用和用于健康目的的AI应用,这两个AI应用可能共享一些处理层,也可能在某些物联网单元上共享处理任务。
联邦学习 🤝
但是,在物联网单元的生态系统中,学习过程是怎样的呢?这就是联邦学习发挥作用的地方。联邦学习的目标是在数据分布在物联网单元或移动设备等不同设备上的场景中,以联邦的方式训练一个全局的机器学习或深度学习模型。
为了实现这一目标,联邦学习算法依赖于一个协调全局学习阶段的服务器,以及一组支持在可能敏感的数据上进行本地学习阶段的普适设备。这里的要点是,普适设备只向服务器发送本地训练的模型,而不是原始数据。
在这种普适场景中,联邦学习可以提供几个优势:
- 保护隐私:每个普适设备在本地保存原始数据,这些数据永远不会与服务器共享。
- 降低延迟:设备与服务器之间的通信仅用于交换模型更新,而不是数据,从而减少了所需的带宽和能源消耗。
- 支持大量异构设备:联邦学习算法能够管理大量设备,这些设备可能具有不同的硬件平台和不同数量的采集数据。
联邦学习的例子可以在智能汽车、工业4.0和医疗保健领域找到。
总结 📝
本节课中,我们一起学习了将AI推向物联网边缘的三种新颖且有前景的学习范式:提前退出机制、分布式推理和联邦学习。提前退出机制通过动态跳过不必要的计算来优化单个设备的性能;分布式推理通过跨设备网络最优分配计算任务来提升系统效率;联邦学习则实现了在保护数据隐私的前提下,利用分布式设备的数据进行协同模型训练。

在下一个视频中,我们将看到在人工智能与物联网技术领域,我们必须面对哪些挑战以及可以抓住哪些机遇。敬请期待。
062:挑战与机遇 🚀

在本节课中,我们将探讨人工智能技术发展中的关键挑战与未来机遇。我们将回顾AI解决方案从大型数据中心到微型设备的部署,并分析当前市场对相关技能的需求趋势。最后,我们将深入探讨三个核心挑战:服务化与嵌入式AI的融合、动态环境下的持续学习以及用户隐私保护。
市场需求的增长趋势 📈
上一节我们介绍了AI解决方案的部署方式,本节中我们来看看市场对相关技能的需求变化。这反映了该领域的实际发展势头。
电气电子工程师学会旗下的《IT职业频谱》杂志发布了一份非常有趣的排名,对比了2014年与2019年美国顶尖雇主所需求的科技技能。
真正有趣的是,增长幅度最大的科技技能正是那些与机器学习和部署解决方案及技术相关的技能。
以下是几个关键例子:
- Python:作为当今大多数机器学习框架的编程语言,在此排名中位列第三。前两位分别是SQL和Java。目前,约有20%的技术岗位要求Python技能,相比2014年增长了123%。
- 从2014年到2019年,对AWS、机器学习、Azure和Docker等技能的需求增长了400%到4000%。需要指出的是,这些技术点正是我们在关于“机器学习即服务”的视频中讨论过的内容。

这些惊人的数字让我们理解到,机器学习和部署解决方案与技术是当今可以把握的切实机遇。
落地实施的核心挑战 ⚠️
然而,要将这些机遇转化为现实,我们需要面对哪些挑战呢?以下将介绍三个关键挑战点。
挑战一:服务化AI与嵌入式AI的融合
我们了解到,机器学习和深度学习的“即服务”模式由云计算平台支持,而嵌入式AI则面向微型物联网设备。
这两种目前看似分离的技术,将自然地融合到一个场景中:机器学习和深度学习处理将在异构硬件平台组成的生态系统上无缝执行。实时信息在本地处理,而更具战略意义的关键绩效指标则被发送到上层进行进一步处理和学习。

在这个场景中,即将到来的5G技术将通过卸载和编排机制发挥关键作用。
但这其实我们已经能在包含微控制器和GPU的异构硬件设备中看到雏形。在全球图景中,挑战在于将这种异构硬件的设计扩展到整个普适设备生态系统中。
我们确信,“即服务”方法与嵌入式AI的融合将在未来几年发生。我们预期,一方面,云端高效能计算的部分将向边缘端延伸,以提升性能、可扩展性和可靠性。另一方面,物联网单元将成为云系统处理的第一线。

挑战二:动态现实环境下的持续学习
将机器学习和深度学习应用于现实世界,必须包含一个事实:现实世界会随时间变化或演进。
这可能是由于季节性、周期性效应、用户行为改变、股市演变、传感器或执行器故障等原因。
这些变化(也称为概念漂移)的影响是,先前学习的模型会变得过时,从而无法有效处理新数据。
从技术角度看,大多数机器学习和深度学习算法假设数据是独立同分布的。这个假设在现实场景中很少成立,可能对预期应用产生灾难性影响。
我们在2020年新冠疫情爆发时看到了一个相关例子。我们关于世界的认知(编码在我们的机器学习模型中)突然变得过时,我们必须学习新的模型来预测,例如,经济趋势或用户行为。
因此,在存在概念漂移的情况下进行学习是一个前景广阔的研究领域,旨在从机器学习和深度学习算法中移除静态假设,使它们能够随时间获取新知识并丢弃过时的知识,从而即使在时变场景下也能保证最高的准确性。

挑战三:用户隐私保护
最后,同样重要的是隐私问题。我们已经讨论过,基于云计算基础设施的技术演进,通过“机器学习即服务”的方式,满足了日益增长的机器学习解决方案需求。
不幸的是,为了有效,这种方法需要在云端处理可能敏感的用户数据,例如个人照片或视频、医疗诊断,以及可能揭示种族来源、政治观点的数据,还有基因、生物识别和健康数据。
我们在此面临的挑战是,在“机器学习即服务”的计算场景中,或者更广泛地说,在采集的信息由远程技术参与者处理的场景中,保护用户的隐私。
这是一个新颖且前景广阔的研究和技术领域,例如基于同态加密和差分隐私的机器学习和深度学习。在这个领域仍有许多工作要做,未来几年我们肯定会看到这个方向的重大进展。
总结与展望

本节课中,我们一起学习了人工智能技术之旅中必须面对的众多挑战中的三项。

在接下来的视频中,我们将看到两家在该领域工作的公司——意法半导体和Alcheelab——的视角。它们将帮助我们理解嵌入式AI和基于云端的社交媒体机器学习领域的下一步重大发展。敬请关注。
063:案例研究 - 技术提供商


在本节课中,我们将通过意法半导体技术专家的视角,了解人工智能在物联网和普适计算领域的实际应用。我们将探讨该公司如何将AI部署到资源受限的微控制器上,并展望未来的技术挑战。


物联网和普适计算是当前与人工智能相关的重要技术场景,工业界在这一领域扮演着关键角色。让我们听听一位专家的观点。



大家好,我是Danielo Pou,意法半导体的技术总监,负责为微控制器和传感器开发人工智能工具,专注于系统研究和应用。
意法半导体在AI领域做什么?
为了提供一些背景,意法半导体生产并销售大量微控制器:在物联网领域是STM32系列,在汽车应用领域是SC5系列。因此,在接触人工智能时,一个基本的考虑和问题是:这是一个趋势性话题还是一项技术奇点?我们得出的结论是后者,它也改变了我们塑造应用的方式。因此,我们在监督式深度学习领域引入了一个由五个步骤组成的方法论。
以下是该方法论的五个步骤:
- 构思应用:这意味着选择能为应用提供数据的传感器。
- 获取并处理数据:获取足够的数据,进行适当的清洗和标注,使其为第三步做好准备。
- 设计与训练神经网络:AI应用开发者通常会设计神经网络拓扑结构并进行训练。他们使用流行的深度学习工具,如Keras、TensorFlow、PyTorch。训练好的模型通常会被导出为可在各种设备上运行神经网络的格式。
- 在微控制器上部署:需要将预训练好的神经网络部署到微控制器上。为了能自动将它们部署到公司自产的微控制器(STM32和SC5)上,我们引入了一项独特的技术,可以自动将模型转换为高效的代码和库,以便在这些资源稀缺的微控制器上运行。这项技术已被集成到公开提供给开发者的工具中,这些工具叫做STM32Cube.AI和SC5Studio.AI。
- 现场验证:由这些工具生成的库被部署到微控制器上,随后可以进行现场应用试验,以验证工具的有效性。
这些工具的设计旨在满足四个基本要求。


以下是这些工具必须满足的四个核心要求:
- 与主流深度学习工具互操作:能够与公开可用的深度学习工具(如Keras、TensorFlow)互操作,并能导入它们导出的标准格式模型。这一点很重要,因为它确保了流程的开放性。
- 生成适配任何IDE的代码:生成的代码能够适配任何集成开发环境。软件社区习惯使用多种IDE,因此我们需要再次确保与它们的互操作性,方法是生成标准的C/C++代码。
- 与具体应用无关:这意味着不依赖于特定的传感器选择或实时操作系统。这样可以为开发者提供自由,让他们按照自己的意愿去构思和定义应用。
- 将微控制器用作AI枢纽:这意味着能够实例化多个神经网络,并独立于任何软件或调度器运行它们。这样,微控制器就可以运行这些网络,服务于不同的传感器。
您认为什么限制了AI的广泛发展?

AI开发者通常需要手动设计神经网络拓扑结构,以便将其适配到资源有限的微控制器上。我认为未来的一个主要挑战是让他们能够使用工具,这些工具可以自动生成神经网络拓扑结构,并根据微控制器提出的约束条件同时优化其超参数。因此,未来我们需要的是由资源约束引导的神经架构搜索和超参数优化工具,以便同时实现网络设计的准确性和在微控制器上的可部署性。
在AI与微控制器之后,您认为下一个挑战是什么?

在微控制器上实现人工智能之后,下一个大趋势将是传感器内人工智能计算。这意味着将人工智能直接带入传感器本身,这需要满足以下要求:复杂度要足够低,以便能够集成在传感器所在的同一芯片上,共享相同的技术节点;并且功耗要足够低,与传感器本身的功耗相当,这显然意味着要进入微瓦级的功耗范围。


所以,人工智能的未来是光明且低功耗的。谢谢你,Danielo。




本节课中,我们一起学习了意法半导体如何通过一个五步方法论将AI部署到微控制器上,了解了其工具链的四大设计原则,并探讨了当前AI广泛部署的挑战(如自动化的神经架构搜索)以及未来的发展方向(传感器内AI计算)。这展示了工业界如何将前沿AI研究与具体的硬件和工程约束相结合,推动技术落地。
064:社交媒体分析的案例研究

在本节课中,我们将学习云计算和机器学习如何应用于大规模数据集的处理与知识提取。我们将通过一个具体的案例——社交媒体分析,来了解这些技术在实际场景中的应用。

云计算和机器学习在处理大规模数据集和提取知识方面扮演着关键角色。

该领域的一个应用场景是社交媒体分析。

让我们听听意大利公司Alchemy在该领域的见解。

Alchemy是一家在数字化转型市场运营的意大利公司。它通过数字化转型项目,支持大中型企业商业模式的演进。
它帮助企业通过技术和数据,重新设计战略、产品与服务。Camilla是Alchemy创新与研究部门的负责人。
我们都知道,2020年的新冠疫情彻底改变了我们的生活。但如何从社交媒体上的信息中获取价值呢?更具体地说,能否设计一个基于云计算的机器学习系统,来追踪和测量社交媒体上与新冠疫情相关的讨论?

2020年2月,Alchemy创建了一个追踪器,用于监测新冠疫情相关的数据驱动传播。其目标是追踪Twitter上的讨论进展。自然语言处理和主题建模识别算法,使得识别和追踪意大利Twitter对话中最相关的讨论成为可能。
一个基于云的Twitter数据收集平台,即“社交感知数据智能”系统,收集了超过600万条与新冠疫情相关的意大利语推文。
为了识别Twitter上与新冠疫情相关的主要主题,应用了自然语言处理技术。每条提取的推文文本被自动转换为数值向量,并通过主题建模算法进行分析,以识别Twitter上与新冠疫情相关的主要主题。
从2020年3月20日到6月12日,Alchemy每周识别出三个主要主题。
在2020年3月的最后一周,分析记录了超过5万条推文的峰值。到了5月,每周的对话量稳定在约2万条推文。
识别出的反复出现的主题包括:居家隔离、欧洲政策、健康与移民。其中,移民主题持续时间最长,而欧洲政策主题在2020年春季初尤为突出。
那么关于虚假新闻呢?我们如何设计基于云和机器学习的系统来检测虚假新闻?
最近由冠状病毒大流行引发的全球紧急状况,在人群中引发了恐慌情绪。同时,对最新信息的持续搜索,助长了虚假新闻和错误信息的传播,尤其是在即时通讯应用、博客、微博和社交媒体中。
被考虑的虚假新闻包括:病毒在意大利的传播与移民有关、新冠病毒与武器计划有关、与5G技术有关等等。
在这项工作中,我们提取了与每条虚假新闻相关的数据。我们拥有数据的文本主体,并使用机器学习和自然语言处理领域的创新技术对其进行建模,以发现有趣的特征。
该研究还涉及了意大利的虚假信息传播问题。一些分享虚假新闻的推文被识别出来。分析发现了一些在Twitter上传播的支持虚假新闻的未经核实的视频。这些研究成果已被《纽约时报》和《时代》杂志等众多媒体报道。
Alchemy与一所大学进行的进一步分析,旨在调查Twitter和Telegram上与“匿名者Q”这一国际阴谋论相关的传播。完整的网络分析显示,许多账户是自动化的,并广泛传播虚假新闻。
让我们在机器学习和社交数据云处理领域更进一步。
什么是社交数据智能?它如何与选举活动相关联?
数据分析是一个检查、清理、转换和建模数据的过程,目的是发现有用信息、提出结论并支持决策。社交数据智能是一种特殊形式的数据分析,专注于社交媒体数据。人们使用社交媒体写下他们对政治事件、社会现象或名人的印象、观点和感受。
从政治角度来看,社交数据智能意味着收集、分析和解读公共领域的信息。它代表了一个分析政治偏好、了解各党派如何进行竞选活动、他们如何与民众沟通以及他们在公众中引发何种情感的机会。
以下是可以在社交媒体上进行的两种主要分析类型:
定量分析
这种分析将每条提及或与候选人相关的帖子,视为投票意向的表达。它可以是地理分析,用于确定关于候选人的帖子主要集中在哪些区域;也可以是时间分析,用于分析对话如何逐日变化。
定性分析
这种分析考虑人们关于候选人写下的内容。它可以基于文本分析、情感分析和机器学习算法。
在政治领域,社交媒体智能不能取代民意调查。然而,它可以代表一种经济可持续且更快速的方式,来收集关于人们对选举、政党和候选人的真实想法的信息。
感谢这些非常有趣的见解。云计算和机器学习正在为社交媒体分析开辟新的研究领域、新技术和新视角。

本节课中,我们一起学习了云计算和机器学习在社交媒体分析中的实际应用。我们通过一个追踪新冠疫情讨论和检测虚假新闻的案例,了解了如何利用云平台收集数据,并应用自然语言处理和主题建模等机器学习技术来提取有价值的信息。我们还探讨了社交数据智能在政治选举分析中的作用,区分了定量与定性两种分析方法。这些技术为理解公众舆论和网络现象提供了强大的工具。
065:机器学习导论 🧠


在本节课中,我们将要学习机器学习的基本概念。我们将了解什么是机器学习,它为何重要,以及它如何通过从数据中学习来改变我们解决问题的方式。课程将介绍机器学习的三种主要类型,并解释它们各自的应用场景。

欢迎来到机器学习课程。本课程将概述一项正在改变我们生活的技术,其影响遍及科技行业、农业、保险、银行业和市场营销。

我们每天会使用机器学习数十次,甚至没有意识到这一点。每次使用网络搜索引擎、垃圾邮件过滤器检测邮件,或自动分组包含朋友的照片时,我们都在利用机器学习算法。
比尔·盖茨曾说,机器学习领域的突破将抵得上十个微软。美国国防部高级研究计划局(DARPA)的主任托尼·蒂尔则表示,机器学习是下一个互联网。这些只是众多关于机器学习的论断中的一部分,它们显示了最强大的国家和最重要的公司对这一技术的浓厚兴趣。
在过去十年中,机器学习算法取得的惊人成果推动了该领域的飞速发展。每年都有数十亿欧元投入到该领域的公共和私人研究中。
那么,什么是机器学习?1997年,卡内基梅隆大学的汤姆·米切尔教授给出了这个定义:一个计算机程序被认为能从经验E中学习,以解决任务T,并通过性能度量P来衡量,如果它在任务T上的性能(由P衡量)随着经验E的增加而提高。
这个定义的关键要素之一是“经验”。与基于模型、采用自上而下演绎方法的经典人工智能方法不同,机器学习算法利用自下而上的归纳方法,从经验数据(即文本模式)出发,用于得出一般性结论。由于知识是从数据中归纳出来的,机器学习算法可能会失败,因为它无法学习从未经历过的东西。
用亚瑟·塞缪尔在1959年的话来说,机器学习是赋予计算机无需明确编程就能学习的能力的研究领域。传统编程是一个人工过程,程序员开发一个在计算机上运行的程序,使用输入数据来产生输出。在机器学习中,这个过程被颠覆以实现自动化。从输入数据和相应的期望输出出发,机器学习算法会自动开发出程序。
这样一来,计算机实现了自我编程。机器学习在我们不知道如何解决某个任务,或者向机器解释如何解决该任务非常复杂时特别有用。而向机器展示问题如何解决的例子,并让它自己学习找到解决方案则更为容易。

例如,假设我们想开发一个从图片中识别动物的程序。使用传统编程,我们需要编写许多行代码来指定如何处理图像,以及某个动物物种与其他物种相比的特征是什么。而使用机器学习,我们只需提供一组示例,其中每张图片都需要标明描绘的是哪种动物。
机器学习技术大致可分为三个主要类别:监督学习、无监督学习和强化学习。

上一节我们介绍了机器学习的定义和基本思想,本节中我们来看看第一种主要类型:监督学习。

监督学习 🎯
监督学习的目标是,在给定一个示例数据集的情况下,推断出一个将输入空间X映射到输出空间Y的模型。我们称这些技术为“监督”的,因为对于数据中的每个示例,我们都有观察变量(作为输入)与由监督者提供的输出标签值之间的关联。
回到之前的例子,观察变量是动物的图像,标签是动物的名称。一旦我们在示例数据集上训练了监督学习技术,我们希望学习到的模型能够对新的、未见过的观察进行预测。换句话说,我们希望学习能够提取并泛化训练数据集中包含的知识的模型。
这与我们大脑的工作方式类似。事实上,即使我们从未见过某只特定的狗,我们也能认出它是一只狗。

监督学习技术可以应用于分类和回归问题。

以下是这两种问题的区别:

- 分类问题:要预测的输出变量是类别型或离散的。
- 回归问题:要预测的输出变量是数值型或连续的。

例如,考虑一个天气预报问题,给定一组气象输入变量,我们必须预测明天的天气。如果期望输出是“晴天”、“多云”、“雨天”这样的标签,那么这是一个分类问题。而如果我们需要预测一天中的温度,则是一个回归问题。
了解了监督学习后,接下来我们探讨第二种类型:无监督学习。
无监督学习 🔍

无监督学习旨在为数据找到更好的表示。在这种情况下,我们有一个没有输出变量的观察数据集,我们希望从未标记的数据中发现隐藏的结构。

开发更好的数据表示可能是解决其他机器学习问题、进行数据分析和数据可视化的重要步骤。无监督模型可以进一步分为聚类、关联和降维问题。
以下是这三种无监督学习问题的介绍:

- 聚类问题:我们想要揭示数据中固有的分组。一个聚类就是一组彼此相似且与其他聚类中的对象不同的对象的集合。例如,在零售店中,聚类可用于根据客户的购买习惯对客户进行分组,以便为每个群体制定单独的商业策略。
- 关联规则学习:我们希望识别数据集中新的、有趣的模式,这些模式通常以规则或频繁项集的形式表示。它们通常用于市场篮子分析,以了解哪些商品被一起购买;用于零售业中的客户或商店聚类,以了解人们倾向于一起光顾哪些商店;以及用于捆绑定价、产品组合决策、交叉销售等。
- 降维问题:降维技术旨在减少数据中存在的变量数量。在大多数情况下,这些变量可能具有高度相关性,使得它们的表示冗余,并对机器学习模型的训练产生负面影响。在不丢失太多信息的情况下减少变量数量,对于提高学习过程的效率和可靠性至关重要。降维可以通过特征选择(选择原始变量的一个子集)或特征提取(将原始变量投影到一个新的、通常更小的变量集合中)来实现。
最后,我们来了解机器学习的第三种主要类型:强化学习。
强化学习 🎮

强化学习旨在解决顺序决策问题。在这种情况下,智能体(即决策者)通过与环境交互来学习。


在每次迭代中,智能体感知来自环境的信息,基于这些信息选择行动,然后获得一个奖励。奖励是一个数值,智能体的目标是随着时间的推移最大化这个累积奖励。
强化学习智能体通过试错来学习,就像动物(以及人类)在学习走路、说话、驾驶、烹饪等时所做的那样。强化学习在许多现实世界问题中都有应用,例如数字广告、资源管理、医学、自动驾驶、自动交易等。


在本节课中,我们一起学习了机器学习的基本概念。我们了解了机器学习的定义、其与传统编程的区别,并详细介绍了机器学习的三种主要类型:监督学习、无监督学习和强化学习。在接下来的课程中,我们将更深入地探讨这三类机器学习技术,从监督学习开始。
066:监督学习问题

在本节课中,我们将要学习监督学习的基本概念。监督学习是机器学习中最大、最成熟、应用最广泛的领域。我们将了解其定义、适用场景、核心解决框架以及需要注意的关键问题。
预测房屋价格、识别图像中的物体、预测特定地点的天气状况、判断客户评论是正面还是负面,这些都是可以使用监督学习解决的问题。
监督学习是机器学习中规模最大、最成熟、应用最广泛的领域。顾名思义,监督学习涉及在“监督者”的指导下进行学习的机器学习算法。
监督者提供一组示例,通常称为训练集。每个示例由一组输入变量 X(也称为特征、预测变量或属性)和一个或多个输出变量 y(也称为目标、响应或标签)组成。监督学习算法的目标是学习一个模型,该模型能很好地近似输入变量 X 和输出变量 y 之间的函数关系 F。最重要的是,我们希望学习的模型在训练时使用的示例之外也能很好地泛化。
例如,在房价预测问题中,监督者可以提供一组示例,其中每栋房屋的价格(即输出变量)与其面积相关。在图中,黄色十字代表示例,黑线代表解释面积与价格之间关系的一个可能模型。

监督学习的适用场景
监督学习并非所有问题的正确答案,但在以下四种情况下,我们可以从这项技术中受益:

- 没有人类专家的问题。如果人们不知道答案,就无法编写程序来解决它。例如DNA分析或药物发现。
- 人类可以执行任务,但无人能描述如何做的问题。例如图像中的物体检测或文本分析。
- 所需功能频繁变化的问题。即使人类能够编写程序来实现,但由于问题变化太快,编写程序的成本效益不高。例如股票价格预测。
- 每个用户都需要定制功能的问题。为每个用户编写定制程序的成本效益不高。例如流媒体平台上的电影推荐或垃圾邮件过滤器的开发。
如何解决监督学习问题
如前所述,我们的目标是在给定数据集 D 的情况下,近似未知的、关联输入 x 和输出 y 的函数 F。
要解决监督学习问题,我们需要定义三个主要组成部分:
- 评估:通过定义损失函数 L。
- 表示:通过定义假设空间 H。
- 优化:通过定义优化算法 O,该算法在假设空间 H 上最小化损失函数 L。
为了可视化这些概念,让我们来看下面这张图。

我们用大写 H 表示所有可能将 x 映射到 y 的函数的空间。在这个空间中,我们想要学习的函数用一个点表示。小写 f 是我们想要近似的未知函数。

损失函数 L 用于衡量任何函数与函数 f 之间的差异。在图中,每个函数的损失值用不同的强度表示,颜色越浅,损失越低。理想情况下,函数 f 本身的损失为0,当我们考虑与 f 差异很大的函数时,损失值会增加。

对近似 f 的函数的搜索是在所有可能函数的一个子空间上进行的,这个子空间称为假设空间,在图中用大写 H1 表示。假设空间中的每个假设都是我们问题的一个候选解决方案。如图所示,假设空间可能不包含目标函数 f。
最后,为了在我们的假设空间中找到最佳假设(小写 h1),我们需要一个优化算法来最小化所选的损失函数。

监督学习与函数近似的关键区别
到目前为止,我们描述的是函数近似,还不是监督学习。如果我们想在函数近似中改进解决方案,可以扩大假设空间,增加包含目标函数 f 的机会。
但这个场景不适用于监督学习。因为在监督学习中,函数 f 是未知的,损失函数无法计算为与 f 的距离。因此,理想的损失函数被经验损失函数所取代,该函数在训练数据集上计算。经验损失函数可以看作是理想损失函数的一个带噪声的度量。训练数据集中的示例越少,噪声就越大。
这意味着,当数据量较小时,扩大假设空间是有风险的,因为优化算法会受到损失函数上噪声的负面影响。事实上,在图中我们看到,经验损失函数的最小值可能导致一个远离真实函数 f 的解决方案。
监督学习的主要秘诀在于,根据可用于训练的数据量,找到合适大小的假设空间。

过拟合与欠拟合
如果我们考虑的假设空间相对于样本数量来说太大,我们就有过拟合数据的风险,即学习到非常复杂的函数,这些函数能很好地解释训练数据,但无法泛化。
另一方面,如果我们将搜索范围限制在一个太小的假设空间,我们就有欠拟合的风险,即学习到的模型过于简单,无法解释未知函数 f 的行为。
正如我们将看到的,任何监督学习技术都有一个或多个超参数,可用于找到适当的平衡,避免欠拟合和过拟合。

监督学习算法的三大组件
总结来说,有成千上万的机器学习算法,但每个算法都包含三个组件:


- 表示:定义假设空间。例如包括决策树、规则集、神经网络、支持向量机、模型集成等。
- 评估:定义如何评估候选假设。例如包括准确率、均方误差、似然、熵等。

- 优化:定义如何搜索最佳假设。例如组合优化、凸优化、约束优化。
监督学习的分类

最后,根据输出变量的类型,监督学习问题可以分为两类:


- 回归问题:输出变量是连续的。
- 分类问题:输出变量是离散的。

🎼 在接下来的两讲中,我们将概述用于解决这两类问题的技术。


本节课总结

本节课中,我们一起学习了监督学习的基础知识。我们了解了监督学习是通过带标签的训练数据来学习输入与输出之间映射关系的方法。我们探讨了其四大适用场景,并深入学习了解决监督学习问题的三大核心组件:表示(假设空间)、评估(损失函数)和优化(算法)。我们还区分了监督学习与纯函数近似的关键不同——即目标函数未知,需使用经验损失。最后,我们认识了监督学习中两个需要平衡的关键风险:过拟合与欠拟合,并了解了监督学习根据输出变量类型可分为回归和分类两大类。
067:回归与分类问题 📊

在本节课中,我们将要学习监督学习中的两大核心问题:回归与分类。我们将了解它们的定义、区别,以及解决这些问题时常用的评估方法、模型表示和优化技术。


回归问题

上一节我们介绍了监督学习的基本概念,本节中我们来看看具体的任务类型。当我们想要预测未来的股票价格、理解广告预算与销售额之间的关系,或者估计房屋价值时,我们面对的就是一个回归问题。

回归问题是一种监督学习问题,其输出变量是数值型或连续型的。
分类问题
另一方面,如果我们想判断一封电子邮件是否为垃圾邮件、识别图像中的物体,或者确定一首歌曲的流派,那么我们面对的就是一个分类问题。
分类问题是一种监督学习问题,其目标是预测一个离散的类别标签。
解决监督学习问题的三个组件
正如前一课所见,要解决监督学习问题,我们需要指定三个组件:评估、表示和优化。
评估方法

以下是常见的评估方法:
- 对于回归问题,最常见的损失函数是均方误差。模型的均方误差是通过计算n个样本的输出变量与模型预测值之间平方差的平均值来得到的。其公式为:
MSE = (1/n) * Σ(y_i - ŷ_i)^2 - 对于分类问题,最常见的评估指标是准确率。因此,我们希望最小化的损失函数是错误分类样本的百分比。

模型表示(参数化与非参数化)

接下来,我们看看模型的表示方法。我们有多种选择,一些适用于回归,一些适用于分类,还有一些两者皆可。这些方法可以分为参数化方法和非参数化方法。
以下是参数化方法的特点:
- 在参数化方法中,我们考虑具有固定数量参数的模型,与训练集的大小无关。
- 一旦参数化模型训练完成,我们就不再需要训练数据集来进行预测,因为我们有了模型的解析表达式。
- 参数化方法的例子包括线性回归和人工神经网络。

以下是参数化方法的特点:
- 在非参数化方法中,学习模型的复杂度取决于训练集的大小。
- 与参数化方法不同,这些方法是基于记忆的,因此需要训练数据集来进行预测。
- 非参数化方法的例子包括K最近邻、决策树和高斯过程。
优化技术
至于第三个组件——优化,我们的选择相对较少。优化方法的选择受到所选评估指标、模型表示以及我们可用的计算资源的共同影响。
例如:

- 如果我们需要找到最小化均方误差的线性模型,这个优化问题可以以闭式解的形式求解。
- 即使我们可以选择使用梯度下降方法,尤其是在样本和参数数量非常大时。
- 在神经网络中,损失函数是非凸的,我们通常采用多起点梯度下降方法来避免陷入局部最优。
- 其他在一些技术中使用的优化方法还包括组合优化和约束优化。

深入理解线性模型
为了具体说明,让我们考虑房价预测问题,并假设我们有一组将房屋面积与其价格关联起来的样本。

在图中,我们可以看到由黄色十字表示的样本,而黑线是在输入变量“面积”上线性且最小化均方误差的模型。
需要重点强调的是,当我们谈论线性模型时,并不意味着这些模型在输入变量的值上是线性的,而是指它们在参数上是线性的。
实际上,从原始输入变量出发,我们可以对它们应用任何非线性变换,从而获得新的特征,然后使用线性模型来组合这些特征的值。通过这种方式,我们可以学习任意复杂的函数,例如本图中描绘的函数。

线性模型的性能高度依赖于特征的选择。
- 用少量特征学习模型更容易,但模型可能无法解释输入-输出关系,从而导致欠拟合数据。
- 相反,考虑大量特征会增加模型的表达能力,但我们需要大量数据来准确训练其参数,否则我们将遭受过拟合。
为了解决这个问题,我们可以使用正则化方法。其思想是考虑非常复杂的线性模型(包含许多特征),并通过在损失函数中添加一个惩罚参数值过大的项来改变损失函数,因为大参数值容易导致过拟合。正则化方法的一个例子是岭回归。
岭回归是一种线性回归方法,其损失函数计算为均方误差与参数平方和乘以正则化参数λ的总和。公式为:
Loss = MSE + λ * Σ(θ_j^2)

通过增加正则化参数λ的值,我们得到的线性模型具有较小的参数值,这对应于更平滑的函数。

人工神经网络与深度学习

另一方面,当设计一组合理的特征很困难时,一个可能的解决方案是考虑人工神经网络。
人工神经网络是计算模型,其灵感模糊地来源于生物大脑分析和处理信息的方式。它们是非线性参数模型,可以从原始输入数据开始,自动提取对解决任务有用的特征。
鉴于神经网络参数的非线性,其优化无法以闭式解获得,通常使用随机梯度下降来执行。

此外,高性能计算技术的最新发展以及大数据的可用性,使得训练具有数百万个参数的非常复杂的神经网络成为可能,从而催生了所谓的深度学习算法。
人工智能在图像分类、语音识别、文本生成、语言翻译、药物发现等领域一些最令人印象深刻的成就,都归功于深度学习。
非参数化方法:以K最近邻为例
使用非参数化方法,预测是通过直接组合数据集中存储的样本的输出值来计算的,其中权重由相似性度量决定。这类方法中的一些被称为惰性方法,因为在训练期间不需要计算,整个计算负担都在评估阶段。
例如,让我们考虑K最近邻方法。每当我们需要对给定输入点进行新预测时,我们都需要扫描训练数据集,寻找K个最接近的训练样本。
- 如果我们有一个回归问题,我们将平均它们的输出值。
- 否则,如果我们有一个分类问题,我们将预测得票最多的类别。
参数K的选择和用于计算距离的度量标准是可以用来提高性能的杠杆。

总结
本节课中我们一起学习了监督学习中的回归与分类问题。我们探讨了定义它们的核心区别,并详细介绍了解决这些问题所需的三个关键组件:评估指标、模型表示(包括参数化和非参数化方法)以及优化技术。我们还深入了解了线性模型、正则化(如岭回归)、人工神经网络以及非参数化方法(如K最近邻)的工作原理。


在对分类和回归问题的监督学习技术进行了这番概述之后,下一课我们将看看如何比较不同的模型,以便为给定的数据集选择最合适的一个。
068:模型选择与评估 🎯


在本节课中,我们将要学习机器学习中的两个核心问题:模型选择与模型评估。理解如何从多个候选模型中选出最佳模型,并客观地评估其性能,是构建有效机器学习系统的关键。

机器学习中的核心问题
机器学习的核心问题是模型选择与模型评估。
模型选择是从一系列基于观测数据训练的候选机器学习模型中,选择出最佳模型以进行部署的过程。
一旦在部署前选定了一个模型,我们需要对其进行评估,以了解其预期的整体表现如何。这就是模型评估。
模型选择的应用场景

上一节我们介绍了模型选择的基本概念,本节中我们来看看模型选择可以应用在哪些方面。
模型选择可以应用于:
- 不同类型的模型表示之间,例如线性模型、神经网络、决策树。
- 配置了不同模型超参数的同一类型模型之间,例如岭回归中的正则化参数,或神经网络中的层数和神经元数量。
- 通过特征选择或降维技术获得的不同输入空间之间。
一旦我们生成了不同的候选模型,如何选择最佳的一个呢?机器学习模型的选择受到许多约束的影响,这些约束与可用的计算资源、项目利益相关者的要求、模型的可解释性以及其他许多因素有关。


何为“最佳”模型?

在这里,“最佳”意味着相对于真实函数具有最小预测误差的模型。

不幸的是,由于真实函数未知,我们无法直接获得预测误差,但我们可以尝试从数据中估计它。为了估计预测误差,我们不能使用训练误差,因为它存在乐观偏差。基于训练误差的模型选择总会选择最复杂的模型。

事实上,与更简单的模型相比,高复杂度的模型将具有更低的训练误差,这会导致过拟合。

数据划分的必要性
为了获得预测误差的无偏估计,我们不能将所有可用数据都用于训练。
我们需要保留一部分数据用于模型选择,另一部分用于模型评估。一种解决方案是将数据划分为训练集、验证集和测试集。

以下是标准流程:
- 我们在训练集上拟合候选模型。
- 在验证集上评估并选择它们。
- 在测试集上报告最终模型的性能。
为了确保流程稳健,我们需要这三个数据集中每一个都有足够多的样本。然而,在许多应用中,数据可用性是有限的,我们希望尽可能充分利用数据。

数据有限时的模型选择技术
当数据有限时,我们可以求助于以下两类模型选择技术之一:概率度量法和重采样方法。
概率度量法涉及使用模型在训练数据集上的表现和模型的复杂性来对候选模型进行解析评分。其思想是根据模型的复杂性来惩罚训练误差(训练误差本身是乐观偏差的)。参数较少的模型复杂度较低,因此更受青睐,因为它平均而言可能具有更好的泛化能力。
一些常用的概率度量标准包括:
- 赤池信息准则
- 贝叶斯信息准则
- 最小描述长度
- 结构风险最小化
概率度量法适用于使用简单的线性模型(如线性回归或逻辑回归),其中模型复杂性惩罚的计算是已知且易于处理的。
另一方面,重采样方法旨在估计模型在样本外数据上的性能。这是通过将训练数据集划分为子训练集和测试集,在子训练集上拟合模型并在测试集上评估它来实现的。这个过程可以重复多次,并报告每次试验的平均性能。这是一种对样本外数据模型性能的蒙特卡洛估计。
交叉验证方法
迄今为止,最流行的是交叉验证系列方法,它包含许多子类型。
一个例子是广泛使用的 K折交叉验证,它将训练数据集分割成K个折。

其一般过程如下:
- 首先,随机打乱数据集。
- 其次,将数据分成K组。
- 第三,对于每一组,我们需要:
- 将该组作为保留集或测试数据集。
- 将剩余组作为训练数据。
- 在训练集上拟合模型,并在测试集上评估它。
- 保留评估分数并丢弃该模型。
- 第四步,也是最后一步,使用模型评估分数的样本来总结模型的技能。
重要的是,数据样本中的每个观测值都被分配到一个单独的组中,并在整个过程中保持在该组内。这意味着每个样本都有一次机会被用作保留集,并有 K-1 次机会用于训练模型。

折数K越大,对误差的估计就越好,但代价是更高的计算成本,因为需要训练K个模型。
模型性能评估
一旦模型选择过程完成,我们如何评估所选模型的性能呢?

我们既不能使用其训练误差,也不能使用其验证误差,因为两者都存在乐观偏差。为了获得所选模型性能的无偏估计,我们需要求助于测试集,它包含了未参与学习过程的数据。
请注意,如果模型的性能不令人满意,我们不能重复使用同一个测试集来评估新模型的性能。这样它将不再是无偏的,并且存在过拟合的风险。在这种情况下,我们将需要一个包含全新数据的不同测试集。
总结与展望
本节课中我们一起学习了模型选择与评估。正确的模型选择和模型评估程序对于成功解决监督学习问题至关重要。


从下一课开始,我们将转向无监督学习,这是机器学习的一个子领域,旨在发现数据的内在结构以构建更好的表示。
069:无监督学习与聚类

在本节课中,我们将要学习无监督学习的基本概念,特别是聚类任务。我们将了解它与监督学习的区别,探讨其核心思想,并详细介绍一种经典的聚类算法——K均值算法。最后,我们将了解聚类在现实世界中的多种应用场景。

无监督学习概述
在监督学习中,目标是学习一组输入和由监督者提供的输出之间的映射关系。而在无监督学习中,我们只有输入值,目标是揭示数据中潜在隐藏的结构。

无监督学习是一套技术,旨在为数据学习更好的表示,这对于提升下游任务的性能至关重要。

无监督学习的灵感来源
我们大脑中发生的大部分学习过程都可以被视为无监督学习。儿童在生命的第一年里,相对于他们所完成的学习量,获得的标记数据非常少。父母或老师不需要向孩子展示每一种狗的品种来教他们识别狗。他们可以从少数例子中学习,无需大量解释,并能自行进行归纳。

当然,在这个过程中他们可能会犯错,但对他们所观察到的事物建立良好的表示,使他们能够迅速自我纠正。

无监督学习的目标
为了学习而学习,心中没有特定任务,使得智能体能够发现模式,这些模式对于发展更广泛的智能可能出人意料地有用。

给定一个未标记的数据集,无监督学习算法可能会尝试将数据分组到簇中,或者尝试通过用一组新特征压缩信息来降低数据的维度,又或者尝试发现数据内部的规则或模式。
聚类任务
无监督学习中的主要任务之一是聚类。聚类任务是将样本分组,使得同一簇中的样本彼此之间比其他簇中的样本更相似。相似性是根据某种度量来衡量的。

由于簇的概念无法精确定义,因此存在几种聚类模型:连通性模型、质心模型、分布模型、密度模型等。针对每一种模型,都提出了许多算法。
为了明确概念,让我们考虑最流行的聚类算法之一:K均值算法。
K均值算法详解
K均值是一种迭代算法,它使用质心模型,意味着每个簇由其中心点表示,该中心点对应于分配给该簇的点的平均值。
以下是K均值算法的步骤:
- 初始化:首先,我们必须选择期望的簇数量K,并通过在数据集中随机选取一个点来初始化每个簇的质心。
- 分配步骤:然后,我们取数据集中的每个样本,通过计算其到所有质心的距离并选择最近的那个,来确定它属于哪个簇。
- 更新步骤:下一步是将每个簇的质心调整为其所分配样本的平均值。
- 迭代:重复执行分配和更新这两个步骤,直到分配结果不再发生变化。
算法可以用以下伪代码描述:
初始化 K 个质心
while 分配结果发生变化:
for 每个数据点:
将其分配到最近的质心所属的簇
for 每个簇:
将质心更新为该簇所有点的平均值
聚类的应用场景

聚类在许多应用中都有使用。新闻聚合器每天查看网络上的数万条新闻,并在无需人工干预的情况下根据主题自动对它们进行分组。


例如,考虑基因组学,特别是DNA微阵列数据分析,我们可以根据某些基因的表达程度将个体分组到不同的类别中。这是无监督学习,因为我们没有告诉算法哪些人是类型1或类型2,而是通过观察数据中的相似性来推断分组。
这类算法也用于社交网络分析、市场细分、天文数据分析等许多其他领域。此外,聚类算法的输出可以用于分类、异常检测、客户细分,甚至改进监督学习模型。

以下是几个常见的应用场景:
- 无标签数据的分类:一个常见的起始用例是对未标记的数据进行分类。即使你的数据没有指定类别的列,聚类算法也会尝试在你的数据集中找到异质的分组。例如,在正常邮件中找出不同的组以识别垃圾邮件。
- 异常检测:想象一下,我们正在处理信用卡交易,我们有一个特定用户。如果我们发现与该用户的其他交易相比,存在一个由高额交易、小额交易或在新商户处的交易形成的小簇,这就会在数据集中呈现一个异常,可能向信用卡公司表明发生了欺诈交易。
- 客户细分:客户细分也是一个常见的用例。例如,基于最近三个月的访问频率和平均消费金额等特征,寻找能帮助你发现业务有多少种客户类型的分组。这需要结合每一个不同的特征,并得出不同的细分市场。或者另一种常见的细分是按人口统计和参与度水平进行。例如,你可以为单身客户、新父母、空巢老人等创建分组,并确定首选的营销渠道,利用这些洞察来推动未来的营销活动。
- 改进监督学习:最后,另一个常见的用例是帮助改进监督学习。例如,我们可以在整个数据集上训练一个好的模型(比如一个好的线性回归模型),然后将其性能与我们在通过聚类发现的数据子集上训练的模型进行比较。或许通过观察这些不同的类别并为这些不同的分组提出不同的预测,我们能够提高性能。虽然不能保证这总是有效,但分割数据以找到这些异质组,然后为每个组训练一个模型以帮助改进分类或回归,是一种常见的做法。

总结与预告
本节课中,我们一起学习了无监督学习的核心概念,重点探讨了聚类任务。我们了解了无监督学习与监督学习的区别,学习了K均值这一经典聚类算法的原理和步骤,并看到了聚类在新闻分类、基因分析、异常检测、客户细分以及辅助监督学习等多个领域的实际应用。


在下一课中,我们将概述如何通过降维技术,利用无监督学习来寻找数据的压缩表示。
070:无监督学习-降维 🧠


在本节课中,我们将要学习无监督学习中的一个核心概念:降维。我们将探讨为什么需要降维,并详细介绍两种主要的降维技术:主成分分析和自编码器。
概述

处理高维输入空间的问题时,我们需要考虑复杂的模型,这些模型需要大量样本进行训练。这被称为“维度灾难”。降维的目标是在保持数据集中大部分信息的同时,将数据集表示在更低的维度中。

降维的必要性
上一节我们介绍了无监督学习的基本概念,本节中我们来看看降维的具体动机。
在压缩后的表示上工作所需的样本更少。但压缩过度可能有害,因为我们有丢失相关信息的风险。我们需要根据数据集中可用的样本数量来权衡这一利弊。
例如,考虑一个人脸图像数据集。每个样本都是一张包含数百万像素的图像。在如此高维的空间中工作会消耗大量内存和计算能力,而且最重要的是,这通常是无效的。随机挑选一张图像恰好生成一张人脸的概率几乎为零。这表明我们当前使用的表示方法对于表示数据集中包含的信息是低效的。
我们可以利用数据中的结构来构建一个新的、更紧凑的表示,在这个表示上解决新的学习任务会更容易。
主成分分析
一种最流行的降维技术是主成分分析。
从原始输入特征出发,PCA创建新的特征,这些新特征是原始特征的线性组合。
让我们看一张显示二维空间中点的图像。我们可以看到,这两个特征看起来彼此高度相关,因为点非常接近一条直线。如果我们想将输入特征从两个减少到一个,我们会如何选择?

如果我们考虑那条直线并将所有点投影到该直线上,这将涉及数据的线性变换。这些新特征允许我们在尽可能保留原始信息的情况下,替换两个原始特征。
正如我们将看到的,PCA的目标是生成一个尽可能保留原始方差的新表示。

PCA的工作原理

那么,PCA如何找到投影数据的这些直线呢?

这是通过计算数据集的协方差矩阵来实现的。为了找出最重要的方向,PCA考虑与最大特征值相关的特征向量。
这是第一个主成分,即方差最大的方向。
特征向量中的值指定了原始输入特征线性组合的系数。第二个主成分将与第二大特征值相关的特征向量,依此类推所有其他成分。根据特征向量的性质,所有新特征彼此正交。
如何选择主成分
现在,我们如何选择要选择多少个以及哪些主成分呢?
首先,我们必须按特征值降序对特征向量进行排序。然后,给定一个我们希望新表示保留的原始方差百分比阈值,从第一个主成分开始,我们不断添加新特征,直到所选成分的特征值之和与所有成分的特征值之和的比率超过所选阈值。


以下是选择主成分的步骤:
- 计算协方差矩阵的特征值和特征向量。
- 将特征向量按对应特征值大小降序排列。
- 设定要保留的方差百分比(例如95%)。
- 从第一个主成分开始累加,直到累计方差贡献率达到阈值。
在图片中,我们看到了PCA在人脸图像数据集上的应用。数据集中有128张大小为256x128像素的人脸图像。在这张图片中,我们看到了前15个主成分(在这种情况下称为特征脸)的可视化表示。在左上角,是在这个15维空间中重建的人脸。
这样,我们不再需要使用超过30,000个值来表示每个像素的强度,而可以仅用15个值来表示一张人脸。当然,如图所示,重建的准确性随着考虑的特征脸数量的增加而提高。
非线性降维
不幸的是,原始特征的线性组合并不总是能够捕捉数据中的隐藏结构。
如果我们有一个数据点分布如图所示的例子,我们将无法识别出一个主要方向,即使数据明显占据特征空间的一个流形。😊
在这种情况下,我们需要借助能够创建非原始特征线性组合的新特征的降维方法,例如局部线性嵌入、自组织映射、核PCA、ISOMap等。最近,也提出了深度学习方法来执行非线性降维。
自编码器

一种流行的方法称为自编码器。
自编码器的思想是训练一个深度神经网络来学习恒等函数。我们希望网络能够正确重建输入。
降维是通过使用特定的神经网络架构实现的,该架构由编码器、解码器以及中间的瓶颈层组成。编码器将数据压缩到其低维表示。瓶颈层(也称为潜在空间)存储低维表示。解码器将我们的低维数据重建回其初始维度。
如果这样的神经网络能够正确重建输入,则意味着存储在瓶颈层中的特征包含了关于我们数据集的相关信息。训练后,解码器被丢弃,瓶颈层的输出直接用作输入的降维表示。
除了降维,自编码器还用于图像去噪。🎼
总结

本节课中我们一起学习了降维技术。我们了解到,处理高维数据时面临“维度灾难”,降维旨在保留信息的同时降低数据维度。我们重点学习了两种方法:主成分分析,它通过线性变换找到数据方差最大的方向;以及自编码器,这是一种使用神经网络学习数据紧凑表示的非线性方法。掌握这些技术对于处理图像、文本等高维数据至关重要。
在下一课中,我们将看到另一组用于发现数据中相关模式的无监督学习技术:关联规则。
071:关联规则挖掘


在本节课中,我们将要学习一种重要的无监督学习技术——关联规则挖掘。我们将了解它的核心概念、经典算法以及如何评估规则的有效性。关联规则挖掘广泛应用于市场购物篮分析、推荐系统等多个领域。
如果你进行过在线购物,你肯定见过弹出的推荐信息。这些推荐信息会说“购买此商品的顾客也购买了……”。这些建议是市场购物篮分析的结果,旨在识别频繁的购物习惯。其目标是通过简化顾客的额外购买来增加销售额。
除了交叉销售,这种分析还可以用于为相关产品提供定价激励、创建产品捆绑包以及进行品类优化。在实体店中,此类分析为如何摆放货架上的商品以促进其相互购买提供了建议。这种分析是通过一种名为关联规则挖掘的无监督学习算法来进行的。
关联规则的概念与应用

上一节我们介绍了关联规则挖掘的背景,本节中我们来看看关联规则的具体定义和应用场景。


一条关联规则描述了数据集中变量或对象之间的关系。除了市场购物篮分析,关联规则挖掘还可用于股票分析、网络日志挖掘、社交网络分析、医疗诊断、生物信息学等领域。
Apriori算法简介
了解了关联规则的基本概念后,我们来看一个最经典、最常用的关联规则发现算法。


用于发现关联规则的最古老且最常用的算法之一是Apriori算法。它被设计用于处理包含交易的数据集,例如销售点交易数据,这些数据代表了顾客在单个购物篮中一起购买的商品。
Apriori算法的工作原理

Apriori算法采用自底向上的方法,其中频繁项集每次扩展一个项目,这个步骤称为候选生成,然后候选集组会与数据进行测试。此阶段的目标是生成所有支持度计数大于最小支持度阈值的项目子集。


为了提高频繁项集生成的效率,Apriori利用了反单调性属性,这有助于减少搜索空间。根据反单调性属性,一个频繁项集的所有子集也必须是频繁的。并且,如果一个项集是非频繁的,那么它的所有超集也都是非频繁的。

当无法生成更多候选集时,Apriori算法终止。一旦确定了频繁项集,就可以创建并利用最普遍的关联规则来使业务受益。每条规则由两个不同的项目集组成,分别称为前件和后件。

关联规则的构成与评估
上一节我们介绍了Apriori算法如何生成频繁项集,本节中我们来看看如何从这些项集中生成规则,并评估其有效性。

规则的含义是:当交易中包含前件中的项目时,我们预期也能在该交易中找到后件中的项目。例如,在超市领域,一条规则可能是:如果黄油和面包是前件,牛奶是后件,那么这条规则意味着,在一个包含黄油和面包的购物篮中,有很大概率也能找到牛奶。
在评估关联规则的能力和有用性时,会考虑一些关键指标。以下是这些核心指标:
- 支持度:衡量项目在同一购物篮中一起出现的频率。
- 置信度:衡量当一个或多个项目已经在购物篮中时,其他项目也出现在该购物篮中的频率。
- 提升度:衡量一组项目一起出现的频率比它们彼此独立时预期出现的频率高多少。


一条强有力的规则需要满足最小支持度阈值,并且具有足够高的置信度或提升度以满足实际用途。

算法实例演示

现在,我们通过一个例子来看看它是如何工作的。在表格中,我们看到一组交易记录,每条记录包含该交易中的商品。



我们假设感兴趣的规则需要满足最小支持度计数等于2,且最小置信度为60%。




第一步是考虑数据中的每个项目作为候选1-项集,并将其支持度计数与最小支持度计数阈值进行比较。在这个例子中,我们可以看到所有项目都足够频繁。
在第二步中,从上一步确定的频繁1-项集开始,我们考虑所有包含两个项目的项集,并再次测试它们是否足够频繁。



在这种情况下,原始的10个2-项集中只有6个是频繁的。

从这些项集出发,我们生成包含三个项目的候选集。这些新的候选集只有在它们的所有子集都是频繁的情况下才可能是频繁的。例如,项集 {I1, I2, I3} 可能是频繁的,因为项集 {I1, I2}、{I1, I3} 和 {I2, I3} 都是频繁的。另一方面,项集 {I2, I3, I4} 不是频繁的,因为 {I3, I4} 不是频繁的。在对每个包含三个项目的候选集进行验证后,我们可以看到哪些是频繁的。

在这里,频繁项集的生成停止了,因为没有包含四个项目的项集是频繁的。
现在,给定所有至少包含两个项目的频繁项集,我们必须生成所有强规则,即所有置信度高于最小置信度阈值的规则。例如,查看项集 {I1, I2, I5} 并检查交易表,我们可以看到所有可能生成的规则及其相关的置信度值,这些值是通过三个项目的支持度计数与规则前件中项目的支持度计数的比值得到的。只有置信度超过60%的规则才会被返回。为了完成该过程,我们对项集 {I1, I2, I3} 进行相同的检查。
算法的局限性与总结
正如我们刚刚看到的,Apriori算法的主要局限在于处理非常大的数据集时所需的时间,因为可能会生成许多频繁项集。例如,如果有10,000个频繁1-项集,它需要生成超过1000万个2-项集候选。因此,它需要检查候选项集中的大量集合,并且会多次扫描数据库以寻找候选项集,这使得算法效率较低。为了克服这个问题,人们提出了其他方法,如Eclat和FP-Growth。

本节课中我们一起学习了关联规则挖掘,这是一种用于发现数据集中项目之间有趣关系的无监督学习技术。我们重点介绍了经典的Apriori算法,它通过逐层搜索和利用反单调性属性来高效地发现频繁项集。我们还学习了如何从频繁项集中生成关联规则,并使用支持度、置信度和提升度等关键指标来评估规则的有效性。


随着本课的结束,我们也完成了对无监督学习技术的概述。在下一课中,我们将开始介绍机器学习的第一个领域——强化学习。


072:序列决策问题 🧠


在本节课中,我们将要学习序列决策问题,并了解强化学习如何通过智能体与环境的交互来学习解决这类问题。
概述
序列决策问题是我们日常生活和许多学习过程中的核心。从婴儿学步到掌握复杂游戏,我们都在通过试错来学习如何做出一系列决策以达到目标。强化学习作为机器学习的一个分支,正是为了解决这类问题而设计的。
什么是序列决策问题?🤔
当我们学习走路、游泳或打网球时,我们就在解决序列决策问题。在这些过程中,直接经验扮演了基础角色。


实际上,我们每天都会面对许多序列决策问题。据估计,一个普通成年人每天要做超过35,000个决策。
以儿童学步为例。大多数人约在一岁时学会走路。在那个年龄,没有人具备明确的物理知识,理解父母建议的能力也有限。我们主要通过试错过程来学习走路。在想要拿到某些物体的欲望驱使下,我们尝试站起来并迈出第一步。起初,这会导致摔倒,这教会我们哪些动作是错误的。通过反复尝试,我们的大脑学会了需要向肌肉发送哪些指令,才能以最有效的方式达成目标。这正是强化学习方法背后的原理。
强化学习是机器学习的一部分,旨在解决序列决策问题。

强化学习的工作原理 🔄
与传统方法不同,强化学习技术不需要问题的动态先验知识,因为它通过智能体与其所处环境之间的直接交互来学习解决决策问题。
强化学习过程可以被建模为一个迭代循环,其工作原理如下:
- 观察:智能体首先观察环境,以理解其所处的状态。
- 决策与行动:然后,它决定要做什么,并执行一个动作。
- 环境反馈:作为这个动作的结果,环境发生变化,并且智能体收到一个奖励信号。奖励是一个数值,用于指定在特定状态下执行该动作的即时效用。
这完成了一次迭代。下一次迭代将从观察环境的新状态开始。
智能体的目标不是选择能获得最大即时奖励的动作,而是在给定的时间范围内收集尽可能多的总奖励。我们常常需要牺牲即时奖励来实现长期目标。
挑战与成就 🏆
当奖励被暂时延迟时,我们就遇到了信用分配问题,这会减慢学习过程。实际上,我们需要评估智能体执行的众多动作中,究竟是哪一个使其获得了特定的奖励。
近年来,得益于与深度学习技术的结合,强化学习算法取得了人工智能史上一些最重要的里程碑。
- 2016年:谷歌DeepMind开发的AlphaGo算法在围棋比赛中以4比1的比分击败了18次世界冠军李世石。这是一个非常重要且出乎意料的结果,因为大多数专家预测这种结果不会早于2050年出现,考虑到围棋的复杂性(棋盘配置数超过10的117次方)。AlphaGo通过结合深度强化学习和规划技术取得了这一非凡成就。
- 后续发展:自2016年以来,研究人员开发了像AlphaZero或MuZero这样的新算法,能够以低得多的计算成本击败AlphaGo。
- 近期成功:
- 2019年,OpenAI开发的OpenAI Five能够在电子游戏Dota 2中击败一支世界冠军队伍。
- 同年,谷歌DeepMind开发的AlphaStar在即时战略游戏《星际争霸II》中达到了宗师级别,排名位于人类玩家的前0.2%。
这是两款非常复杂的策略游戏,对人工智能算法提出了诸多挑战,例如实时决策、部分可观测性和高维动作空间。这些特性存在于许多现实世界的决策问题中。这些近期的成功表明,强化学习算法可能在不远的将来帮助我们做出复杂的决策。

然而,值得注意的是,这些成果是以非常昂贵的模拟为代价获得的,其产生的经验数据量远超过人类所需。例如,AlphaStar训练了超过六周,生成了相当于超过10万年的《星际争霸》游戏时长。如此大量的经验只有在模拟问题中并借助高性能计算基础设施才可能实现。

问题分类与形式化 📊
当前的挑战是开发能够利用人类通常使用的经验量进行学习的强化学习算法。为了实现这一目标,表征机器学习方法的归纳法需要与基于模型知识的演绎式人工智能方法相结合。
为了确定需要考虑哪种强化学习技术,正确地对决策问题进行分类并将其形式化至关重要。
以下是问题分类的关键维度:
- 观察与动作:是有限的还是连续的?
- 可观测性:智能体能否完全观察到问题状态,还是只有部分观察?
- 状态转移:是确定性的还是随机的?
- 问题性质:是平稳的还是非平稳的?
- 环境:是单智能体环境,还是存在其他学习智能体?
以下是两个例子:
- 魔方游戏:这是一个具有有限动作和有限状态的序列决策问题,状态完全可观测。此外,动作对状态转移的影响是确定性的;游戏是平稳的,因为它不随时间变化;并且游戏中只有一个智能体。
- 扑克游戏:它具有有限的动作和状态,但状态是部分可观测的,因为我们无法看到对手的私有手牌。状态转移是随机的,因为牌是从牌堆中随机抽取的。游戏是平稳的,并且存在多个同时学习的智能体。
总结
本节课中,我们一起学习了序列决策问题的概念。我们了解到强化学习通过智能体与环境的交互试错来学习解决这类问题,其核心是最大化长期累积奖励。我们回顾了强化学习近年来的重大成就,如AlphaGo和AlphaStar,同时也指出了其当前对海量模拟数据的依赖。最后,我们探讨了如何通过观察、动作、可观测性、状态转移等维度对决策问题进行正确分类和形式化,这是选择合适强化学习技术的第一步。


在下一课中,我们将分析马尔可夫决策过程,并讨论如何用它来形式化序列决策问题以及如何解决它们。
073:马尔可夫决策过程



在本节课中,我们将要学习描述序贯决策问题的核心数学模型——马尔可夫决策过程。我们将了解其基本构成、核心假设以及如何求解最优策略。
概述

描述序贯决策问题最常用的数学基础是马尔可夫决策过程。马尔可夫决策过程,简称MDP,描述了一个离散时间的随机控制过程。在这个过程中,智能体可以观察问题的状态,执行一个动作,并观察该动作带来的即时奖励以及导致的新状态。
马尔可夫假设
MDP基于马尔可夫假设,该假设可以表述为:给定当前状态,未来与过去独立。马尔可夫假设的一个结果是,为了做出最优决策,我们只需依赖对当前状态的观察,而无需记住我们是如何到达这个状态的。
例如,当我们玩魔方时,为了解开它,我们无需知道是如何达到当前魔方配置的。这意味着我们不需要在内存中保存智能体与环境交互的历史,从而极大地简化了问题。
MDP的构成要素
一个离散时间有限MDP由以下几个要素构成:

- 状态集合 S:一个有限的状态集合。
- 动作集合 A:一个有限的动作集合。
- 状态转移函数 P:具体来说,
P(s, a, s')表示在状态s执行动作a后,到达状态s'的概率。 - 奖励函数 R:
R(s, a)指定了在状态s执行动作a所获得的即时奖励。 - 折扣因子 γ:指定了未来奖励相对于即时奖励的重要性。

策略

为了定义智能体的行为,我们使用策略的概念。一个马尔可夫策略是一个函数,它为每个状态指定执行不同动作的概率。如果在任何状态下,策略将所有概率分配给一个单一动作,我们称该策略是确定性的;否则,该策略是随机性的。

求解MDP的目标
求解一个MDP意味着找到最优策略,即最大化某种奖励累积函数的策略。最常见的目标函数是未来奖励的期望折扣总和。在这个公式中,时间 i 的奖励乘以折扣因子的 i-1 次方。

公式: G_t = R_{t+1} + γ * R_{t+2} + γ^2 * R_{t+3} + ... = Σ_{k=0}^{∞} γ^k * R_{t+k+1}
折扣因子 γ 的值需要在 [0, 1] 范围内,它指定了未来奖励对智能体的相关程度。如果折扣因子等于0,意味着智能体只对最大化即时奖励感兴趣。而折扣因子等于1则意味着智能体对所有奖励给予同等重要性,无论它们将在何时获得。
一般来说,较低的折扣因子值会导致短视的行为,而较高的值会产生有远见的策略。
价值函数与贝尔曼方程
为了理解如何计算MDP的最优策略,我们需要引入价值函数的概念。给定一个策略 π,其价值函数 V^π 是一个函数,它为每个状态 s 指定了从状态 s 开始并遵循策略 π 所能获得的期望折扣奖励。

状态 s 在策略 π 下的价值可以通过一个递归方程来表达,即贝尔曼期望方程。根据这个方程,状态 s 的价值可以表示为策略 π 能从该状态获得的期望即时奖励,加上一步之后到达状态的折扣期望价值。
公式: V^π(s) = Σ_{a∈A} π(a|s) * [ R(s, a) + γ * Σ_{s'∈S} P(s, a, s') * V^π(s') ]
考虑MDP中所有状态的贝尔曼期望方程,我们得到一个线性方程组,其中方程和未知数的数量都等于状态的数量。在折扣因子小于1的假设下,任何策略 π 的价值函数都可以通过求解这个贝尔曼方程组以闭式形式获得。
最优价值函数与贝尔曼最优性方程

为了求解MDP,我们需要找到一个在任何状态下都能达到最大可能价值的策略。可以证明,对于任何MDP,总是存在至少一个确定性的马尔可夫策略是最优的。此外,所有最优策略都具有相同的价值函数,称为最优价值函数 V*,其在任何状态下的值都是最优的。
与策略的价值函数类似,我们也可以为最优价值函数写出递归方程,即所谓的贝尔曼最优性方程。
公式: V*(s) = max_{a∈A} [ R(s, a) + γ * Σ_{s'∈S} P(s, a, s') * V*(s') ]
我们可以看到,在这个方程中,贝尔曼期望方程中关于动作的期望被替换为关于动作的最大化。不幸的是,这个微小的改变带来了显著的影响,因为方程在未知数中不再是线性的,因此不存在闭式解。
求解算法:动态规划
然而,可以使用迭代方法求解MDP。最常用的两种动态规划算法是价值迭代和策略迭代。
- 价值迭代:我们从任意的价值函数开始,然后迭代地将贝尔曼最优性方程的右侧应用于前一次迭代输出的价值函数。通过这种方式,我们产生一个价值函数序列,该序列具有收敛到最优价值函数的性质。
- 策略迭代:我们从任意策略开始,然后在两个步骤上迭代:策略评估和策略改进。在策略评估步骤中,我们计算给定策略
π的价值函数。在策略改进步骤中,我们计算所谓的贪婪策略π',即最大化从策略π的价值函数估计出的效用的策略。可以证明,策略π'在任何状态下都不会比策略π差。当在迭代过程中,我们找到与策略π具有相同价值函数的策略π'时,意味着我们已经找到了最优价值函数,并且π和π'都是最优策略。
总结与展望

本节课中我们一起学习了马尔可夫决策过程的核心概念。动态规划算法允许我们在状态转移模型和奖励函数已知的情况下求解MDP。

当这两个要素中的一个或两个未知时,我们需要借助强化学习算法,这将在下一课中介绍。
074:强化学习算法 🧠


在本节课中,我们将要学习强化学习算法的核心概念与分类。当面对环境动态未知或状态空间庞大的决策问题时,强化学习技术通过直接与环境交互来学习解决方案。
概述
在现实世界中,我们常常需要解决决策问题,但可能对环境动态知之甚少。即便拥有良好的状态转移模型,当状态和行动的数量过于庞大时,我们也无法使用动态规划等精确方法求解。在这些情况下,我们可以使用强化学习技术,它通过与环境或模拟器直接交互来学习解决方案。
在强化学习中,对转移模型的知识被替换为观察行动对环境的影响。我们将由状态、行动、下一个状态和奖励组成的序列称为经验样本。
强化学习技术的分类维度
强化学习技术可以从多个维度进行分类。一个重要的区分是无模型方法与基于模型的方法。
无模型 vs. 基于模型

在两种情况下,我们都不假设事先知道转移模型。
- 无模型方法:旨在通过直接评估策略的性能来学习最优策略。
- 基于模型的方法:首先观察智能体与环境的交互以估计环境动态模型,然后对该模型应用精确求解方法。
无模型方法比基于模型的方法计算效率更高,且不需要我们指定一个待估计的参数化模型。另一方面,基于模型的方法通常样本效率更高(即,它们可以用更少的经验样本进行学习),但如果所考虑的参数化模型不足以表示环境动态,则可能无法学习到最优策略。

按估计目标分类

另一个重要的分类维度与方法估计的目标有关。沿着这个维度,主要有三大类方法:基于价值、基于策略和演员-评论家。

1. 基于价值的方法
基于价值的方法使用经验样本来直接学习最优价值函数。
这些方法从动态规划算法中获得灵感,并将贝尔曼方程中包含的期望值替换为一个采样变量,该变量只考虑智能体选择的行动和到达的下一个状态。

其中,Q学习是最流行的强化学习算法之一,它是一种受价值迭代算法启发的、无模型的、基于价值的方法。
Q学习更新公式:
Q(S, A) ← Q(S, A) + α * [R + γ * max_a‘ Q(S‘, a‘) - Q(S, A)]

在执行状态S下的行动A后,Q学习会使用即时收集的奖励R和下一个状态S‘中最佳估计行动的价值,来更新与状态-行动对(S, A)关联的价值。
在假设每个状态-行动对被无限次访问,且学习率α按照适当的衰减计划降至0的前提下,Q学习保证收敛到最优价值函数。
基于价值的方法通常在马尔可夫过程中表现良好,但在具有部分可观测性或行动空间非常大的决策问题中会遇到困难。
2013年,Q学习与深度学习技术结合,诞生了深度Q网络算法。在DQN中,价值函数使用卷积神经网络进行近似,这使得算法能够在状态数量极其庞大的决策问题中学习。最初,DQN被用于训练智能体直接从像素输入玩57款雅达利游戏,并在大多数游戏中达到了人类水平。此后,DQN得到了许多改进,现在已有更深的强化学习算法在所有57款游戏中达到甚至超越了人类水平。

2. 基于策略的方法
上一节我们介绍了基于价值的方法,本节中我们来看看基于策略的方法。
这里的思路是定义一个参数化策略的空间,然后搜索能实现最佳性能的参数。此类中最流行的算法是策略梯度方法,例如REINFORCE和G(PO)MDP。

从一个初始策略开始,策略梯度方法对策略参数执行梯度上升优化,其中梯度方向是通过在当前策略下于环境中执行生成的轨迹来估计的。
以下是策略梯度方法的核心步骤:
- 初始化策略参数。
- 使用当前策略在环境中生成轨迹(状态、行动、奖励序列)。
- 计算策略性能的梯度估计。
- 沿梯度方向更新策略参数以提升性能。
- 重复步骤2-4直至收敛。
基于策略的方法使我们能够处理具有高维和连续状态-行动空间的决策问题。此外,与基于价值的方法相比,它们对违反马尔可夫假设的敏感性较低,即使在部分可观测问题中也能学习到良好的解决方案。

因此,它们常被用于机器人应用中。此外,它们允许我们学习随机策略,这在多个智能体交互的问题中可能很有用。另一方面,它们需要大量数据来估计改进方向,并且通常可能收敛到局部最优解而非全局最优解。

3. 演员-评论家方法
第三类方法试图结合前两类的优点。在演员-评论家方法中,有两个主要组件:
- 评论家:目标是估计当前策略的价值函数。
- 演员:目标是实现智能体的策略,并根据来自评论家的建议进行更新。
通过这种方式,演员-评论家方法既能享受基于价值方法的样本效率,又能像基于策略的方法一样在维度和连续控制问题中操作。
流行的演员-评论家算法包括A2C、TRPO、PPO和DDPG。

探索与利用的平衡
强化学习研究正在许多方向上快速发展。其中一个核心问题是在探索与利用之间找到正确的平衡。
我们确实需要探索以理解我们行动的效果。但同时,随着我们的知识变得更加可靠,我们希望减少探索。找到从探索转向利用的最佳方式对于强化学习算法的成功至关重要。

总结

本节课中我们一起学习了强化学习算法的核心分类。我们了解了无模型与基于模型方法的区别,以及按估计目标划分的三大类算法:基于价值的方法(如Q学习)、基于策略的方法(如策略梯度)和结合两者优势的演员-评论家方法。最后,我们认识到在强化学习中平衡探索与利用是取得成功的关键。这些算法为解决环境动态未知或状态空间庞大的复杂决策问题提供了强大的工具。

浙公网安备 33010602011771号