IPAM-深度学习和组合优化笔记-全-

IPAM 深度学习和组合优化笔记(全)

001:公平且可解释的二元分类决策规则

在本节课中,我们将探讨公平且可解释的决策制定。虽然本次研讨会主题是深度学习,而本话题与深度学习关联不深,但我们同样涉及学习过程和分类任务。我们将首先理解什么是公平且可解释的分类。

背景与动机

机器学习已广泛应用于许多领域,包括那些具有社会影响力的应用,例如贷款审批、招聘、大学录取或假释决策。在这些应用中,与推荐或广告不同,机器学习算法的结果直接影响人类。同时,这些决策并非完全自动化,通常有“人在回路”中参与,因为它们是关键决策。当有“人在回路”时,领域专家(即决策者)自然希望理解并评判机器学习模型,以便能够信任它。

显然,这些决策需要受到控制,这既是出于道德原因,也是出于法律原因,因为它们影响着人类。因此,设计能被人类理解的、可解释的算法的需求日益增长。此外,由于决策最终影响的是人,这些决策也需要对受影响者保持公平。这就是我们追求可解释性和公平性的普遍理由。

需要明确的是,可解释性和公平性并非没有代价。归根结底,我们的目标是设计一个准确的分类器。一旦开始对决策过程施加更多约束,就可能损失一些准确性。我们也需要控制并衡量这种损失。

问题设定:二元分类

接下来,让我们进入具体情境。我们将关注二元分类问题,具体来说是有监督的二元分类。我们拥有带标签的数据集,其中包含一系列特征。分类器的目标是以高准确率决定未见数据的标签,即最小化在未见数据上犯错的概率。这是基本的有监督二元分类设定。

当我们转向公平分类时,我们假设数据还有一个额外的特征。

总结

本节课中,我们一起学习了公平且可解释的二元分类决策规则的背景与动机。我们了解到,在影响人类的关键决策应用中,模型的可解释性对于建立信任至关重要,而公平性则是道德和法律的基本要求。同时,追求这些属性可能会以牺牲一定的模型准确性为代价。最后,我们明确了本课程讨论的具体技术场景是有监督的二元分类,并指出在公平分类问题中,数据通常包含一个表示敏感属性的额外特征。

002:学习几何

在本节课中,我们将探讨如何将深度学习方法应用于几何问题。几何问题通常不具备传统深度学习所依赖的平移不变性等特性,这带来了独特的挑战。我们将介绍如何利用神经网络来解决这类问题。


上一节我们介绍了深度学习在组合优化中的一般背景,本节中我们来看看一个具体的应用领域:几何问题。

我假设本次会议的名称“深度学习与组合优化”意味着我将更多地讨论深度学习,较少涉及组合优化本身。深度学习是一种颠覆性的研究方向,它改变了我们进行计算和解决计算问题的方式。它涉及优化大量参数、调整并训练它们,最终得到一个能够进行分类、分割和推理的架构。只要数据维度有明确的假设,例如数据本身的参数维度较低,或者数据位于某个低维空间中,这种方法就非常有效。

或者,在另一种情况下,如果数据具有某些空间或时间上的平移不变性,你也可以利用这些特性来优化你的模型。

我今天要讨论的是一系列我们研究多年的问题,即几何问题。我们要解决的核心问题是:如何利用神经网络来处理和解决这些本质上不具备平移不变性的问题。


接下来,我们回顾一下图灵奖。

两年前,图灵奖授予了三位巨人:Yann LeCun教授(也是Facebook AI总监),他提出了卷积网络;Geoffrey Hinton,他提出了AlexNet(全卷积网络);以及Yoshua Bengio,他因生成对抗网络而闻名。

现代的卷积神经网络需要这种特殊的平移不变性特性来解决问题。

这三位巨人因其近30年(自90年代以来)的坚持和推动这一方法论而获得了图灵奖。我仍然记得2003年在一次研讨会上,Yann LeCun展示他的卷积网络如何识别数字或字母。那次研讨会给我留下的深刻印象是,你可以将大量带标注的样本输入一个计算机器,最终得到非常好的结果。

我们将要做的是尝试遵循这一哲学。


本节课中我们一起学习了将深度学习应用于几何问题的基本思路和挑战。我们了解到,几何问题通常缺乏传统深度学习模型所依赖的平移不变性,因此需要特殊的方法来处理。通过回顾图灵奖得主的贡献,我们看到了深度学习方法论的力量和持久影响。

003:用于旅行商问题的Transformer网络

在本节课中,我们将学习如何利用Transformer神经网络架构来解决经典的组合优化问题——旅行商问题。我们将从问题定义开始,介绍传统解法,然后深入探讨基于深度学习的解决方案,特别是我们提出的Transformer网络模型。

旅行商问题概述

旅行商问题是一个著名的组合优化问题。给定一组城市,目标是找到一条最短的可能路径,从一个城市出发,恰好访问每个城市一次,然后返回起点城市。这个问题最早由William Hamilton提出。

TSP属于一个更广泛的组合优化问题类别,这些问题在工业中每天都被使用,例如仓库管理、运输、供应链、硬件设计和制造等。TSP是一个困难的问题,穷举搜索的复杂度是 O(n!)。然而,它也是最受欢迎和研究最广泛的组合优化问题之一,其现代研究可追溯到1951年的Von Neumann。

传统解法分类

传统上,有两类主要算法用于解决组合优化问题。

以下是两类算法的简要介绍:

  • 精确算法:例如穷举搜索、动态规划或整数规划。这类算法保证能找到最优解,但当问题规模 n 增大时,它们会迅速变得不可行。
  • 近似算法:这类算法本质上是在最优性和计算时间之间进行权衡。为此,需要设计一些启发式规则,这些通常是理论上可应用的简单规则,直到获得解。这类算法的复杂度通常是多项式级别的,其解的质量通过与已知最优解的差距来评估。

由于时间关系,我们对传统方法的介绍将比较简要。

上一节我们回顾了TSP的传统解法,本节中我们来看看近年来利用神经网络解决TSP的新思路。

基于神经网络的解决方案

近年来,利用神经网络解决TSP成为了一个活跃的研究方向。我们的工作正是基于这一背景展开。

接下来,我将介绍我们为此问题设计的核心架构。

模型架构:Transformer for TSP

我们的模型基于Transformer架构。Transformer最初是为自然语言处理任务设计的,但其强大的序列建模和注意力机制非常适合处理像TSP这样的序列决策问题。

在模型的具体实现中,编码器用于处理输入的城市坐标序列,解码器则用于逐步生成访问城市的顺序(即旅行路径)。

解码技术

为了从模型输出中构造出有效的旅行路径,我们需要使用特定的解码技术。这个过程将模型预测的概率分布转化为具体的城市访问序列。

数值结果与分析

我们在一系列标准TSP数据集上评估了我们的Transformer模型,并将其性能与传统的启发式算法进行了比较。

以下是部分关键结果的总结:

  • 在中小规模问题上,我们的模型能够快速找到接近最优的解。
  • 与一些传统启发式方法相比,神经模型在求解速度上展现出潜力。
  • 模型展示了良好的泛化能力,即在训练分布之外的问题规模上也能表现良好。

讨论与结论

本节课中,我们一起学习了如何应用Transformer网络来解决旅行商问题。我们首先介绍了TSP的定义及其重要性,然后概述了传统精确算法和近似算法。接着,我们重点介绍了基于神经网络的解决方案,并详细阐述了我们的Transformer模型架构、解码技术以及最终的实验结果。

总结来说,深度学习为组合优化问题提供了新的工具和视角。虽然传统方法在最优性保证方面有优势,但神经网络方法在求解速度和适应新问题实例方面具有潜力。将两者的优势结合,可能是未来一个重要的发展方向。

004:夸克、层次聚类与组合优化

概述

在本节课中,我们将探讨一项源于粒子物理学背景的研究工作。这项研究结合了深度学习与组合优化,特别是通过层次聚类方法来解决特定问题。我们将从粒子物理中的“喷注”概念出发,逐步介绍如何将其建模为组合优化问题,并探讨与深度学习的潜在结合点。

从粒子物理到组合优化

我的背景是粒子物理学,直到最近才真正涉足组合优化领域。我将介绍我们近期受粒子物理问题启发而开展的一些工作,这些工作同时触及了深度学习与组合优化。

首先,我想从本次研讨会的宏观视角谈起。众所周知,深度学习在计算机视觉和自然语言处理领域产生了巨大影响。我一直积极尝试在物理科学,特别是粒子物理等领域应用深度学习。正如研讨会所述,深度学习的潜力在于它能提供某种近似算法,这些算法可能具有良好的扩展性,并且用途更广泛。同时,我们也关注深度学习与传统组合优化算法之间可能存在的协同效应。我演讲的核心内容将主要围绕一个我认为更偏经典方法的研究展开,但我会提示如何将其与深度学习方法结合,以期呼应本页幻灯片的主旨。

旅行推销员问题与科学探索之旅

存在经典的“旅行推销员问题”,而我的研究历程则像是一次“科学探索之旅”。几年前,我主要研究希格斯玻色子物理,涉及大量经典统计学。我们的预测通常以模拟器的形式编码,这关联到似然自由推断领域,而近期我们已大量使用深度学习进行此类推断。此外,我们还致力于寻找标准模型之外的新物理,这常常需要处理一种称为“喷注”的对象,我稍后会详细解释。

当我最初开始将深度学习应用于喷注物理时,意外地走向了与自然语言处理相关联的方向。我们使用了类似之前演讲中提到的、应用于旅行推销员问题的自然语言处理技术,来解决一个喷注物理问题。自此,我深入参与了各种与物理学中结构化数据相关的研究,这些数据可能表现为集合、树或图的形式。因此,我们开展了图神经网络等相关工作。

最近,我在这些方向之间建立起了一些联系。

总结

本节课我们一起探讨了如何从粒子物理中的具体问题(如喷注分析)出发,将其形式化为一个组合优化任务。我们回顾了层次聚类方法在此类问题中的应用,并初步展望了引入深度学习技术(例如图神经网络)来增强解决方案潜力与通用性的可能性。这项研究体现了跨学科方法在解决复杂科学问题中的价值。

005:通过条件梯度进行结构化机器学习训练

在本节课中,我们将学习如何利用条件梯度方法进行结构化机器学习训练。核心思想是使用组合多面体(如k-稀疏多面体)来正则化机器学习问题,从而诱导出解决方案的结构和稀疏性。我们将从条件梯度方法的基础讲起,然后探讨两个应用实例:学习动态系统以及训练深度神经网络。

条件梯度方法回顾

上一节我们介绍了课程概述,本节中我们来看看条件梯度方法的基本原理。

我们想要解决的核心优化问题非常简单:最小化一个光滑凸函数F在一个可行区域P上。通常,我们考虑P是一个多面体。这是一个非常通用的模型,可以应用于许多场景。

在这个框架下,我们通过一个所谓的线性优化预言机来访问可行区域P。这意味着,给定一个线性目标函数C,我们可以高效地求解在P上的线性优化问题。

以下是条件梯度方法(也称为Frank-Wolfe方法)的基本步骤:

  1. 初始化:从可行区域P中选取一个初始点。
  2. 线性优化:在当前点计算函数F的梯度,并将其作为线性目标,通过线性优化预言机在P上找到一个最小化该线性目标的方向(顶点)。
  3. 步长选择:沿着当前点与找到的顶点之间的连线方向,选择一个步长(例如,通过线搜索)。
  4. 迭代更新:用选定的步长更新当前点,然后重复步骤2和3,直到满足收敛条件。

这种方法的关键优势在于,它避免了在每次迭代中进行复杂的投影操作(将点投影回可行域),而是通过求解线性问题来保持解的可行性。

应用一:通过条件梯度学习动态系统

了解了条件梯度方法的基础后,我们来看第一个应用实例:学习动态系统。

在这个应用中,我们的目标是学习一个动态系统的模型。通过将问题建模为在某个组合多面体(如稀疏性约束的多面体)上最小化损失函数,我们可以利用条件梯度方法来高效地求解。这种方法能够自然地诱导出模型的稀疏结构,例如,识别出系统中最重要的状态变量或相互作用。

应用二:训练深度神经网络

上一节我们看到了条件梯度在动态系统学习中的应用,本节中我们来看看它在深度神经网络训练中的用途。

在训练深度神经网络时,我们经常面临高维参数空间和复杂的非凸优化问题。通过引入合适的组合约束(例如,参数稀疏性或低秩约束),并将问题表述为在相应多面体上的优化,我们可以使用条件梯度方法进行训练。这有助于获得结构化的、可解释的网络模型,同时可能提升泛化性能。

总结

本节课中,我们一起学习了如何利用条件梯度方法进行结构化机器学习训练。我们首先回顾了条件梯度方法的基本原理,它通过线性优化预言机在凸集上最小化凸函数。接着,我们探讨了两个应用:学习动态系统和训练深度神经网络。在这些应用中,组合多面体被用来引入稀疏性或其它结构约束,而条件梯度方法则提供了一种高效且自然的优化途径来求解这些结构化学习问题。

006:利用ReLU稳定性扩展精确神经网络压缩

概述

在本节课中,我们将探讨如何利用组合优化的方法,在保证神经网络功能不变的前提下,将其压缩得更小。我们将重点关注在特定输入范围内,如何精确地移除冗余的神经元和层,使网络更适合部署在资源受限的设备上。

神经网络与压缩问题

我们考虑前馈神经网络,其本质是将输入空间 X 映射到输出空间 Y 的一个函数。

我们进一步假设所有神经元都使用修正线性单元(ReLU)作为激活函数。ReLU的输出由以下公式给出:

output = max(0, w·x + b)

其中,w 是权重向量,x 是输入向量,b 是偏置项。

从生物神经元的角度理解,当 max 函数取第一个参数(即0)时,该ReLU神经元处于“非激活”状态;当取第二个参数(即线性变换结果)时,神经元处于“激活”状态,并产生正输出。

我们感兴趣的核心问题是:能否找到一个神经元更少、层数可能也更少的神经网络,实现从 XY 的完全相同的映射?

限定输入范围以简化问题

为了使这个问题更容易解决,特别是考虑到在优化问题中,有界输入通常更有帮助,我们引入一个关键思路:我们只要求在特定应用相关的输入范围内保持网络功能等价。

换句话说,我们并不关心任意输入 x 的映射,而只关心在实践中可能出现的、属于特定集合 X 的输入。

为了更具体地说明这一点,让我们看一个经典例子:MNIST数据集。

MNIST数据集是手写数字图像的集合,每张图像大小为28x28像素。每个像素的输入值都在0到1之间。因此,在实践中,我们从不关心某个输入为负数或大于1时会发生什么,因为这种情况永远不会出现。这是众多可以安全限定输入范围的应用场景之一。

现有压缩方法与精确压缩

目前已有大量关于神经网络压缩的研究工作。

上一节我们介绍了压缩问题的背景和限定输入范围的思路。本节中,我们来看看如何利用ReLU的稳定性来实现精确的神经网络压缩。

以下是实现精确压缩的核心步骤:

  1. 识别稳定神经元:在给定的输入范围 X 内,分析每个ReLU神经元的激活模式。如果一个神经元对所有 x ∈ X 都处于“始终激活”或“始终非激活”状态,那么它就是稳定的。
  2. 简化稳定神经元
    • 对于始终非激活的神经元,其输出恒为0,可以直接从网络中移除。
    • 对于始终激活的神经元,其ReLU函数等价于一个线性变换(output = w·x + b),可以用一个没有激活函数的线性节点替代,并合并到相邻层中。
  3. 重构网络:在移除或简化了稳定神经元后,重新连接和调整剩余神经元的权重与偏置,确保新网络在输入范围 X 内的输出与原始网络完全一致。
  4. 迭代优化:上述过程可以逐层进行,并且可以迭代应用,因为简化一层后可能使下一层的神经元变得稳定。

总结

本节课中,我们一起学习了如何利用ReLU激活函数在特定输入范围内的稳定性,来精确地压缩神经网络。我们首先将问题限定在实践相关的输入集合上,然后通过识别并移除“始终激活”或“始终非激活”的稳定神经元,构建一个更小但功能等价的新网络。这种方法为在资源受限的边缘设备上部署高精度模型提供了一种精确且可验证的压缩途径。

007:学习切割

在本节课中,我们将探讨如何将强化学习应用于整数规划,特别是用于自动化切割平面方法中的决策过程。我们将了解切割平面方法的重要性,以及如何通过机器学习来改进这一经典算法。


概述

切割平面方法是现代商业求解器的核心组件,它独立于具体问题,是一种强大的通用方法。然而,其效果很大程度上依赖于人工设计的启发式规则来选择有效的切割平面。本节课程将介绍我们如何利用强化学习来自动化这一选择过程,从而加速整数规划的求解。

组合优化中的机器学习方法

在本次研讨会中,我们一直在讨论机器学习在组合优化中的应用。使用机器学习技术来帮助加速或解决组合优化问题有多种途径。

一种方法是直接根据问题的表示来预测解。在这种情况下,我们需要考虑解的参数化以及可以针对特定预测问题定制的神经网络架构。

另一种更中立的方法是更接近算法本身,即设计一个神经架构来模仿算法的计算过程。这样,我们能够结合机器学习方法学习表示的灵活性,以及来自算法(如算法思维)的归纳偏置。

此外,还有第三种方法,即直接将机器学习与硬编码算法相结合。在这种情况下,我们试图使用机器学习技术来自动化算法中的某些决策过程,从而取代这些流行算法中部分由人工设计的启发式规则。先前的工作已经对分支定界等算法以及原始启发式方法进行了大量研究,而本项工作将聚焦于切割平面方法。

可以看到,这三种方法都属于将机器学习应用于组合优化问题的更大范畴的一部分。最上层是更纯粹的基于机器学习的预测方法,它允许我们受益于机器学习表示的灵活性。而在底层,我们可以将机器学习与纯粹的经典算法相结合,从而受益于数十年来解决组合优化问题的硬编码算法研究。

为什么关注切割平面方法?

切割平面方法是许多强大的现代商业求解器的支柱。它的一个主要优点是它对底层问题是不可知的,同时也是一种非常强大的方法。例如,我们可以使用切割平面来高效解决诸如旅行商问题(TSP)等难题。

考虑切割平面方法的一个主要挑战是,目前没有非常完善的、通用的启发式规则来自动选择最有效的切割平面。这通常依赖于专家的经验和问题领域的知识。

切割选择问题

在切割平面方法的每一步,我们都会从当前线性规划松弛解的不等式池中生成多个候选切割平面。目标是选择其中一个添加到公式中,以尽可能快地收紧松弛边界。

以下是切割选择过程的关键步骤:

  1. 生成候选池:基于当前解,生成一组潜在的切割平面(例如,Gomory切割、覆盖切割)。
  2. 评估候选:需要一种方法来评估每个候选切割的“好坏”。
  3. 做出选择:根据评估,选择一个切割添加到问题中。

传统的启发式方法可能基于切割的“深度”、与当前解的角度,或其对目标函数值的预期影响等因素。我们的目标是使用强化学习来学习一个选择策略,该策略能够超越这些固定的启发式规则。

强化学习框架

我们将切割选择过程建模为一个马尔可夫决策过程(MDP):

  • 状态(s_t):在步骤 t 时,由当前线性规划松弛解和候选切割池组成的表示。
  • 动作(a_t):从候选池中选择一个切割平面。
  • 状态转移:将选定的切割添加到问题中,并重新求解线性规划松弛,得到新的状态 s_{t+1}
  • 奖励(r_t):衡量添加该切割后带来的改进。一个自然的奖励是对偶间隙的减少量,即 r_t = (gap_{t} - gap_{t+1}),其中 gap 是当前最优解与松弛边界之间的差距。

我们的目标是学习一个策略 π(a_t | s_t),它能够最大化从初始状态到终止状态(例如,达到某个间隙阈值或迭代次数限制)所获得的累积奖励。

策略网络与训练

我们使用一个神经网络来表示策略 π。该网络的输入是状态 s_t 的特征化表示,输出是在所有候选切割上的概率分布。

状态特征可能包括:

  • 当前线性规划解的信息。
  • 每个候选切割的属性(如深度、有效性、方向)。
  • 全局问题统计信息。

训练通过策略梯度方法(例如REINFORCE或PPO)进行。我们让智能体在大量整数规划实例上进行交互,根据其获得的累积奖励来更新网络参数,目标是让智能体学会选择那些能最有效加速收敛的切割。

实验与结果

我们在经典的整数规划基准测试集上进行了实验,例如MIPLIB。我们将学习的切割选择策略与常用的启发式规则(如最深的切割、随机选择)进行对比。

关键指标包括:

  • 求解时间:达到特定对偶间隙所需的时间。
  • 迭代次数:达到收敛所需的切割添加次数。
  • 最终对偶间隙:在固定时间或迭代次数后的解质量。

实验结果表明,通过学习得到的策略能够显著减少达到相同解质量所需的迭代次数,并且在许多情况下能够更快地收敛到更优的解。

总结

本节课中,我们一起学习了如何将强化学习应用于整数规划中的切割平面选择问题。我们首先回顾了机器学习与组合优化结合的几种范式,然后重点介绍了切割平面方法的重要性及其面临的挑战。接着,我们详细阐述了将切割选择建模为马尔可夫决策过程、设计奖励函数、构建策略网络以及进行训练的整体框架。通过这种方法,我们可以让机器学习智能体自动学习如何选择有效的切割,从而减少对人工启发式规则的依赖,并潜在地提升求解器的性能。这展示了将数据驱动方法与经典优化算法相结合的巨大潜力。

008:神经网络验证作为分段线性优化

在本节课中,我们将探讨深度学习中的一个问题,并尝试从运筹学的视角出发,开发新的方法来解决它。这是我们与合著者Ross Bochn、Will Kunll、Christian和Wan Pablo在过去几年中合作完成的一系列论文。

分段线性函数简介 🧩

为了确保大家有共同的理解基础,首先描述一下什么是分段线性函数。这是一个相当简单的对象。其核心思想是:将一个函数的定义域划分为若干部分,然后该函数在每个部分上都是线性的,但线性表达式会随着跨越不同的定义域部分而变化。从某种意义上说,这是一个非常简单的函数族,它们具有局部线性的特性,但依然能够表达非常复杂的非线性或非凸行为。

分段线性函数在运筹学的许多场景中出现。事实上,我在博士期间花了大量时间思考如何最好地建模和求解包含分段线性函数的优化问题。在运筹学中,你可能会遇到用分段线性函数来建模某些经济现象,例如收益递减或规模经济。如果你在过程工程或化学工程领域工作,处理物理系统时,可能会混合一些化学物质,它们以非线性方式相互作用,因此很自然地会尝试通过分段线性近似来捕捉这些非线性行为。

在运筹学中,我们常常比较幸运,或者会做出一些建模假设,使得我们能够处理低维或可分离的分段线性函数,这从分析的角度来看非常有利。因此,有长达数十年的研究工作序列,专门开发用于解决这类优化问题的优秀算法,尤其是在这种低维设置下。这里展示的两张图片来自我的博士论文,我花了大量时间思考像左边这样的单变量分段线性函数,以及像右边这样的双变量分段线性函数。这些都是低维的,你可以真正运用多面体理论等工具来理解如何在优化背景下最好地对它们进行建模。

深度学习应用:神经网络验证 🔍

以上是关于分段线性函数的一些背景,我们稍后会再回到这个话题。现在,我将介绍我们目标所在的深度学习应用领域:神经网络验证。过去几年的观察发现,你训练出的神经网络可能在样本内和样本外都有很高的准确率,但却并非完全可靠。

神经网络验证的核心问题是:给定一个训练好的神经网络和一个输入区域,我们希望验证在该区域内所有可能的输入下,网络的输出是否都满足某些特定的性质(例如,分类结果始终正确,或输出值保持在某个安全范围内)。这本质上是一个保证神经网络鲁棒性和安全性的问题。

将验证问题转化为分段线性优化 🛠️

有趣的是,许多现代神经网络(如使用ReLU激活函数的全连接网络)本身就是分段线性函数。这意味着神经网络的输入-输出映射可以被表示为一个复杂的分段线性函数。因此,神经网络验证问题可以转化为:在一个分段线性函数定义的区域内,寻找其输出的最大值或最小值,以检查是否违反给定的性质约束。

这便将一个深度学习中的验证问题,与运筹学中经典的分段线性优化问题联系了起来。我们可以利用运筹学中为低维分段线性优化开发的成熟理论和算法,尝试解决高维神经网络带来的验证挑战。当然,直接应用传统方法面临维度灾难,但其中的核心思想——如利用函数的分段线性结构、构造松弛边界、进行分支定界搜索——为设计新的、可扩展的验证算法提供了强大的视角和工具。

总结 📝

本节课我们一起学习了分段线性函数的基本概念及其在运筹学中的常见性。接着,我们介绍了深度学习中的神经网络验证问题及其重要性。最关键的是,我们看到了如何将神经网络的验证问题重新表述为一个分段线性优化问题,从而搭建起连接深度学习与组合优化这两个领域的桥梁。这种跨学科的视角有助于我们利用运筹学的经典工具,来应对确保现代神经网络安全可靠这一新兴挑战。

009:机器学习能否帮助解决货运容量管理预订控制问题?

在本节课中,我们将探讨机器学习在货运容量管理,特别是预订控制问题中的应用潜力。我们将了解该问题的重要性、复杂性,以及为何传统方法面临挑战。


为什么货运容量管理很重要?🚚

上一节我们介绍了课程主题,本节中我们来看看货运容量管理为何是一个重要问题。

近年来,由于在线零售的兴起,包裹递送行业蓬勃发展。2019年,该市场规模约为4300亿美元。2020年,运送的小型包裹数量超过1000亿件。预计到2026年,这个数量将翻倍。

然而,包裹递送的繁荣也带来了负面影响,特别是温室气体排放。在美国,交通运输部门约占排放量的30%,这个比例在许多国家也类似。交通运输本身存在效率低下的问题。例如,卡车完成的车辆行驶里程中有相当一部分是空载行驶。此外,交通拥堵也带来了巨大的成本。

这促使我们需要提高运力使用率,减少运输对环境的负面影响。部分解决方案可以通过服务的差异化和定价来实现。我们主要关注两个领域:一方面是专注于管理供应和优化供应链的供应链管理;另一方面是专注于通过结构性价格和数量决策来管理需求的收益管理。本次讨论将聚焦于收益管理方面,特别是与货运容量管理相关的数量决策。

我们可能都习惯了在客运方面看到收益管理,例如预订机票时。我们习惯了在客运方面看到这种价格和服务的差异化。但在货运方面,它发展得并不充分。相关文献研究较少,实际应用也不多。其中一个问题是货运容量管理本身比较复杂,特别是因为其“容量”不像客运那样清晰。在客运中,一名乘客占用一个座位。


货运容量管理的核心挑战 📦

上一节我们了解了问题的重要性,本节中我们来看看其核心挑战。

货运的“容量”定义更为模糊。它可能涉及重量、体积、形状,以及货物在运输工具中的具体摆放方式。这种多维度和物理约束使得精确预测和管理可用容量变得非常困难。

传统的优化模型和启发式方法在处理这种高维、不确定且受复杂物理约束的问题时,往往显得力不从心。这为机器学习方法提供了潜在的应用空间。


机器学习能提供什么帮助?🤖

在了解了传统方法的局限后,本节我们探讨机器学习可能带来的帮助。

机器学习,特别是深度学习,擅长从高维、非结构化的数据中学习复杂模式。在货运容量管理中,它可以应用于以下几个方面:

以下是机器学习可能发挥作用的几个方向:

  1. 需求预测:利用历史订单数据、市场趋势、季节性因素等,更准确地预测不同航线、不同货物类型的未来需求。模型可以表示为:
    需求 = f(历史数据, 市场特征, 时间特征)

  2. 容量消耗预测:学习特定货物属性(如尺寸、重量、形状)如何实际消耗运输工具的空间(体积利用率、重量分布)。这比简单的“占一个座位”规则复杂得多。

  3. 动态定价与预订控制:基于实时的需求预测和剩余容量预测,构建智能系统来决定是否接受一个预订请求,以及以何种价格接受。这可以看作一个序列决策问题。

  4. 货物装载优化:虽然更偏向运营层面,但机器学习可以辅助或加速三维装箱等复杂组合优化问题的求解,提供高质量的初始解或启发式规则。


总结与展望 🔮

本节课中,我们一起学习了货运容量管理预订控制问题。

我们首先认识到,由于电子商务增长和环境影响,提高货运效率至关重要。接着,我们分析了该问题的核心挑战在于货运“容量”的多维性和模糊性,这使得传统的收益管理方法直接应用起来很困难。最后,我们探讨了机器学习如何通过改进需求预测、容量消耗建模和智能决策,为这一复杂的组合优化问题提供新的解决思路。

尽管这项研究是探索性和持续性的,但它展示了将数据驱动方法与运筹学优化相结合,以应对现实世界物流挑战的巨大潜力。未来的工作将集中于开发具体的模型框架,并在真实数据上进行验证。


010:图算法可微分发现的框架

在本节课中,我们将探讨如何使基于图神经网络解决组合优化问题的方法变得更强大、更具表现力。这项工作是佐治亚理工学院与谷歌大脑及香港中文大学的合作者共同完成的。

概述

当我们讨论图上的组合优化问题时,可以发现许多不同的应用场景。无论你从事社交网络、互联网、计算生物学还是智慧城市领域,都能找到图数据。通常,我们需要解决一些基于图的组合优化问题,例如最小顶点覆盖、最小支配集、最大支配集等。本次讲座将以最小顶点覆盖问题作为贯穿始终的示例,但该方法同样适用于其他类型的组合优化问题,如最大团问题等。

最小顶点覆盖问题示例

让我们以图上的组合优化问题作为运行示例。在这个特定问题中,我们希望从图中选择一个节点的子集。如果节点被选中,我们将其标记为1。我们的目标是覆盖所有的边,这意味着每条边至少有一个端点被选中。

将其写成一个组合优化问题,形式如下:对于每条边,其两个端点的选择指示器之和必须大于等于1。我们的目标是最小化被选中节点的总数。这个问题虽然简单,但已应用于信息传播等多个不同领域。它是一个简单但属于NP难的问题。

针对此类问题,已经设计了许多启发式或近似算法。最近,出现了一种使用图神经网络来参数化图算法并学习该算法以解决组合优化问题的兴趣。其背后的推理是,这类组合优化问题并非只解决一次,而是需要反复解决。因此,有机会学习一些算法,使其能够适应特定的问题分布,从而可能更好地解决该组合优化问题。

什么是图神经网络

上一节我们介绍了最小顶点覆盖问题及其背景。本节中,我们来看看解决此类问题的关键工具——图神经网络。

图神经网络是一种专门用于处理图结构数据的神经网络。它通过学习图中节点和边的特征表示,能够捕获图的拓扑结构和节点属性信息。在图算法中,GNN可以用来学习节点的嵌入表示,这些表示可以用于后续的决策过程,例如判断一个节点是否应该被选入顶点覆盖集。

总结

本节课中,我们一起学习了如何利用图神经网络框架来增强解决组合优化问题的能力。我们以最小顶点覆盖问题为例,介绍了问题的定义、应用背景以及引入图神经网络的基本动机。理解这个框架是探索更强大、更具表现力的可学习图算法的基础。

011:自然输入的推理

在本节课中,我们将探讨如何将神经技术应用于组合优化问题,并使其能够处理自然输入。我们将从经典的计算机科学算法入手,看看如何通过巧妙地引入神经网络,极大地扩展这些传统算法的能力范围。

为什么研究算法?🤔

上一节我们介绍了本课程的主题。本节中,我们来看看为什么算法本身是一个极佳的研究对象。

我认为算法是组合推理的基本纯粹形式。你可以将它们视为永恒的原则。无论使用何种计算模型——CPU、GPU还是量子计算机——算法推理都可能是其中的关键组成部分。研究算法允许你在很大程度上,完全与任何形式的感知解耦,只专注于你想要进行组合优化的目标。

此外,算法还具有许多非常有利的特性:

  • 强大的泛化能力:它们能轻易地实现强泛化。
  • 可组合性:可以被分解为各种子程序。
  • 可证明性:通常可以证明其正确性,并确定其时间或空间复杂度。
  • 清晰的表达:通常以伪代码形式编写,便于理解其操作。

对于我和许多听众而言,算法和竞技编程是我们最初进入计算机科学领域的途径,远早于我们发现机器学习。

一个具体案例:最大流问题 🌊

以上我们介绍了算法的优良特性。接下来,我们通过一个具体例子来深入理解这些特性。

我一直在研究最大流问题,这对许多人来说应该很熟悉。我们可以用流网络来指定一个流问题的输入。流网络是一种图,它通过一个容量函数进行增强。每对节点之间的容量会告诉你允许沿该边释放多少流量。

图中有两个特殊的顶点:源点 S汇点 T。源点可以释放无限的流量,而汇点接收无限的流量。

本节课总结 📝

本节课中,我们一起学习了将神经网络与经典组合优化算法(如最大流问题)结合的基本动机和起点。我们认识到,算法作为组合推理的核心,具有泛化性强、可组合、可证明等优点。通过在其适当的位置引入神经组件,我们有望显著扩展这些传统算法的可能性,使其能够处理更复杂的自然输入。

012:使用神经网络求解混合整数规划

在本节课中,我们将学习如何利用深度学习技术来求解混合整数规划问题。混合整数规划是运筹学中的核心问题,广泛应用于物流、调度、资源分配等领域。我们将探讨传统求解器的局限性,以及神经网络如何通过学习问题结构来辅助求解过程。


背景介绍:什么是混合整数规划?

上一节我们介绍了组合优化的基本概念,本节中我们来看看一个具体且重要的问题——混合整数规划。

混合整数规划是一种优化问题,其目标是在满足一系列线性约束的条件下,优化一个线性目标函数。问题的决策变量可以同时包含整数和连续变量。

其标准形式可以用以下公式描述:

目标函数: minimize c^T x
约束条件: Ax ≤ b
变量要求: x_i ∈ Z (部分或全部变量为整数)

其中,cb 是向量,A 是矩阵,x 是决策变量向量。如果忽略变量的整数约束,问题就变成了一个可以在多项式时间内求解的线性规划。然而,整数约束的引入使得问题变成了NP难问题,求解变得非常困难。

尽管如此,MIP因其在线性框架下强大的表达能力,在工业界有着极其广泛的应用。


动机:为何引入深度学习?

既然已有众多成熟且高效的商业或开源求解器,为何还要探索深度学习的方法呢?

核心思想在于,尽管通用求解器非常强大,但它们在求解每个具体问题时,仍然需要进行大量耗时的搜索和计算。深度学习有可能通过学习大量同类问题实例中隐含的结构和模式,来预测更优的搜索策略或初始解,从而加速整个求解过程。

以下是深度学习可能带来帮助的几个方面:

  • 加速搜索: 预测分支定界法中更有效的分支变量。
  • 生成初始解: 为求解器提供一个高质量的起点,减少迭代次数。
  • 学习启发式规则: 自动发现针对特定问题类别的有效启发式方法。

我们的目标是探索学习技术能否在现有求解器已经取得的惊人成就基础上,带来进一步的提升。


方法概述:神经网络如何与求解器结合?

这项工作是与DeepMind和Google Research的同事们共同完成的。我们提出了一种将神经网络与传统MIP求解器相结合的方法。

具体而言,我们设计了一个神经网络模型,其输入是MIP问题的实例数据(如约束矩阵A、目标向量c、约束向量b)。模型经过训练后,能够输出对求解过程有益的指导信息,例如变量在最优解中取值的概率分布。

模型架构通常采用图神经网络,因为MIP问题可以自然地表示为一个二分图:一边是变量节点,另一边是约束节点,边表示变量在约束中的系数。

训练数据来源于大量历史问题实例及其最优解(或高质量解)。通过监督学习,模型学习从问题特征到解决方案的映射。


总结

本节课中我们一起学习了使用神经网络求解混合整数规划的基本思路。我们首先回顾了MIP问题的定义及其挑战,然后探讨了引入深度学习的动机——即通过学习问题结构来增强传统求解器。最后,我们概述了将神经网络与MIP求解器结合的一般方法。

这项研究展示了机器学习与运筹学交叉领域的巨大潜力。通过利用数据驱动的方法,我们有望为那些计算成本高昂的经典优化问题开发出更高效的解决方案。如需了解更详细的技术细节和实验结果,请参阅相关的学术论文。

013:论稀疏线性规划与(简单)神经网络

概述

在本节课程中,我们将探讨稀疏线性恢复问题,并分析其与简单神经网络模型之间的内在联系。我们将看到,这个看似“枯燥”的组合优化子类,如何反过来帮助我们理解深度学习中的某些核心问题。

从稀疏线性恢复问题谈起

上一节我们了解了深度学习在组合优化中的多种应用。本节中,我们来看看一个非常具体的组合优化问题:稀疏线性恢复。

该问题的核心是:给定一个欠定的线性方程组 y = Ax,我们能否利用关于解 x 的额外假设(通常是稀疏性)来恢复它?这个框架包含了多个具有代表性的NP难问题,并在统计学、应用数学等领域极具影响力。

以下是该问题的标准形式:

给定 y 和 A,求解 x,使得 y = Ax,且 x 尽可能稀疏。

松弛方法与几何洞察

解决上述NP难问题的一个强大工具是凸松弛。具体来说,我们将衡量稀疏性的 L0 范数(非零元素个数)替换为凸的 L1 范数(绝对值之和)。

这个松弛之所以有效,背后有深刻的几何原理。L1范数最小化倾向于产生稀疏解,这为设计高效算法打开了大门。Candes、Romberg、Tao和Donoho等人的开创性工作,建立了一套完善的理论,用以阐明这种松弛在何时是有效的。

与神经网络的联系

现在,让我们将视线转向神经网络。稀疏线性恢复问题如何帮助我们理解神经网络呢?

一个有趣的视角来自神经科学,例如Bruno Olshausen和David Field的工作。他们发现,稀疏编码模型可以解释初级视觉皮层中简单细胞感受野的形成。这提示我们,追求稀疏性的优化过程,可能与神经网络学习到的表示有根本联系。

简而言之,研究这个“简单”的组合优化问题,或许能为我们理解深度学习模型为何有效、以及它们学习了什么,提供新的几何与优化理论基础。

总结

本节课我们一起学习了稀疏线性恢复这一组合优化问题。我们介绍了其基本形式,探讨了通过L1范数进行凸松弛的核心思想及其几何意义。最后,我们看到了该问题与神经网络,特别是在解释学习表示方面,存在的深刻联系。这为我们从优化理论的角度理解深度学习打开了一扇窗。

014:使用图卷积神经网络进行精确组合优化

在本节课中,我们将学习如何将图卷积神经网络(GCNN)应用于精确组合优化问题,特别是分支定界算法中的分支决策过程。

概述

组合优化问题广泛存在于工业与科研领域。虽然已有成熟的商业求解器能提供精确解,但在需要频繁求解同一类问题变体的场景下,机器学习有望通过学习历史数据,构建启发式方法,从而加速求解新问题的过程。本教程将探讨如何将机器学习模型,特别是图卷积神经网络,集成到组合优化求解器中,辅助其做出更优的分支决策。

分支定界算法简介

上一节我们介绍了应用机器学习加速求解组合优化问题的愿景。本节中,我们来看看其核心应用场景之一:分支定界算法。

我们讨论的组合优化问题通常可以表述为混合整数线性规划问题。其目标是最小化一个目标函数 c^T x,同时满足约束 A x ≤ b,并且变量 x 有上下界 l ≤ x ≤ u。其中一部分变量被限制为整数值,这构成了整数规划问题。

分支定界是求解此类整数规划问题的核心精确算法。它通过不断分割可行解空间(分支)并估算每个子空间的目标值下界(定界)来寻找最优解。

以下是分支定界算法中一个关键决策点的示例图示:

作为序列决策问题的分支

理解了分支定界的基本原理后,我们来看看如何用机器学习的视角看待它。在分支定界过程中,算法需要不断选择哪个变量进行分支。这个选择极大地影响搜索树的规模和求解速度。因此,我们可以将变量选择建模为一个序列决策问题。

在每个决策点,机器学习模型接收当前求解器状态(如线性松弛解、约束矩阵等),并预测下一个最佳的分支变量。模型的目标是学习一个策略,使得整个求解过程的效率最高。

图卷积神经网络建模

上一节我们将分支决策建模为序列决策问题。本节中,我们来看看如何用图卷积神经网络(GCNN)来对这个问题进行建模。

我们的核心贡献是将分支决策问题构建为一个图学习任务。我们将整数规划问题自然地表示为一个二分图:变量节点和约束节点。变量与约束之间的连接关系构成了图的边。这种表示方法可以捕捉问题的组合结构。

图卷积神经网络非常适合处理这种结构。它通过消息传递机制聚合邻域信息,能够学习变量和约束的嵌入表示。基于这些学习到的嵌入,我们可以预测每个变量的分支分数。

以下是该二分图表示的可视化示意图:

方法实现与实验研究

在介绍了GCNN的建模方式后,我们来看看具体的实现细节和实验效果。

我们设计了一个端到端的训练流程。模型学习的目标是模仿一个被称为“强分支”的昂贵但高效的专家规则。通过大量历史问题实例的训练,GCNN学习预测与专家决策相似的变量分数。

以下是方法的核心步骤概述:

  1. 数据准备:收集大量同一问题家族的MILP实例及其在求解过程中的状态。
  2. 图构建:将每个MILP状态转化为变量-约束二分图。
  3. 模型训练:训练GCNN,使其输出的变量分数与强分支规则的选择相匹配。
  4. 集成推理:将训练好的GCNN模型集成到求解器中,在分支时提供决策建议。

实验表明,与传统的启发式分支规则(如伪代价分支)相比,我们学习的GCNN策略能显著减少分支定界树的节点数,从而在多个基准测试集上加速了求解过程。

总结

本节课中,我们一起学习了如何利用图卷积神经网络来增强组合优化求解器的分支决策能力。我们首先回顾了分支定界算法,然后将其中的变量选择问题构建为序列决策任务。通过将整数规划表示为二分图,并应用GCNN学习变量嵌入,我们成功训练出了一个能够有效预测分支变量的机器学习模型。该方法展示了将问题结构感知的深度学习模型与经典优化算法相结合的巨大潜力,为快速求解重复出现的组合优化问题提供了一条新路径。

015:利用稀疏主成分分析求解半定规划

在本节课中,我们将学习如何利用来自统计学和机器学习领域的稀疏主成分分析技术,来高效求解大规模半定规划问题。我们将看到,跨领域的技术迁移不仅发生在数学层面,也发生在计算层面,为解决传统优化求解器的规模瓶颈提供了新思路。

概述

半定规划是一类重要的凸优化问题,在组合优化等领域有广泛应用。然而,通用求解器在处理大规模问题时面临计算挑战。本节将介绍一种新颖方法,通过借鉴稀疏主成分分析的思想来突破这一瓶颈。

半定规划简介

上一节我们介绍了组合优化问题的背景,本节中我们来看看半定规划的标准形式。

SDP问题通常表述如下:我们有一个矩阵变量 X(在本讲座中,所有矩阵均默认为对称矩阵),一个线性目标函数,以及一组线性约束。同时,矩阵 X 需要是半正定的。

其数学形式可概括为:

  • 目标:最小化 C • X(矩阵内积)
  • 约束:A_i • X = b_i,对于 i = 1, ..., m
  • 并且 X ≽ 0(即 X 为半正定矩阵)

半正定矩阵有多个等价刻画,例如其所有特征值非负,或对于任意向量 z,其二次型 z^T X z 非负。

理论上,凸优化理论保证半定规划可以在多项式时间内求解。但在实际计算中,当矩阵维度 n(即行数或列数)达到100左右时,即使是商业求解器也会开始感到吃力。除非问题具有特殊结构,否则求解更大规模的问题一直是个挑战。

动机与核心思路

了解了SDP的挑战后,我们自然会问:如何突破这个规模限制?本节将介绍我们研究工作的核心动机。

我们感兴趣的是开发能够解决更大规模SDP问题的方法。这项工作的一个关键联系在于,虽然本次讲座不涉及太多“学习”成分,但它展示了如何将一个领域(如统计学中的稀疏主成分分析)的技术,应用到另一个领域(如优化中的半定规划求解),这种迁移不仅发生在数学层面,也发生在计算层面。

方法:从稀疏PCA到SDP求解

那么,具体如何将稀疏主成分分析的思想用于求解SDP呢?以下是该方法的核心步骤。

稀疏主成分分析旨在寻找具有少量非零元素的特征向量,这通常涉及一个带有基数约束的优化问题。我们的核心洞察是,某些大规模SDP问题的解矩阵具有低秩或稀疏结构。通过主动寻找具有稀疏支撑集的解,我们可以将原SDP问题转化为一个规模更小、更易处理的问题。

以下是实现这一过程的关键环节:

  1. 问题重构:将原SDP问题重新表述,显式地引入对解矩阵稀疏性或低秩性的追求。
  2. 算法设计:设计迭代算法,在每一步固定一个稀疏的支撑集,然后在缩小的子空间内求解一个较小的SDP子问题。
  3. 支撑集更新:根据当前解的信息,更新稀疏支撑集,例如利用梯度信息或残差。
  4. 收敛求解:重复上述步骤,直至满足收敛条件,得到原问题的一个近似解。

这种方法的核心优势在于,它通过解决一系列小规模的子问题来逼近大规模原问题的解,从而规避了直接求解大规模SDP的计算负担。

总结

本节课中,我们一起学习了如何利用稀疏主成分分析的技术来求解大规模半定规划问题。我们回顾了SDP的基本形式及其计算挑战,介绍了跨领域技术迁移的动机,并详细阐述了通过寻找稀疏解来降低问题规模的核心方法。这项工作表明,结合机器学习与优化领域的思想,能够为解决经典的计算难题开辟新的有效途径。

IPAM课程:P16:Ecole:组合优化求解器中类似Gym的机器学习库

感谢。我将介绍这个名为Ecole的库。它由蒙特利尔的实时决策研究团队开发。该团队隶属于Mila研究所。我将阐述这个库的用途及其工作原理。

首先,我想介绍我对组合优化求解器的理解。

当我说Ecole用于组合优化的机器学习时,我特指混合整数线性规划问题。目前,求解器主要处理这类问题。我认为大家都很熟悉MIP。今天已有许多讲座介绍过它。本质上,它是一个线性规划,但对部分变量增加了整数约束。

虽然形式简单,但它是一个非常通用的建模工具。许多现实世界的应用都可以形式化为MIP。同时,求解MIP通常是NP难问题。那么,什么是MIP的精确求解?

精确求解包含两个部分。首先,你需要能够产生上界。这里我考虑最小化问题。上界是一个可行解。如果你能提供一个满足问题中所有约束的解,即它是可行的,并且有一个目标值,那么你就知道至少能达到这个水平。这是一个上界。

另一方面,一些算法允许你获得优化问题的下界。例如,如果你求解线性规划松弛问题,你会得到一个下界。你知道没有可行解能比这个界更好。基本上,一个精确求解器会提供这两样东西:原始侧的上界和对偶侧的下界。

它会随时间不断改进和优化这些界。它可以使用分支定界、割平面或其他任何能提供此类界的算法。基本上,当满足第一个停止准则,即上界等于下界时,你就说解出了一个实例。


概述

在本节中,我们将学习Ecole库。这是一个专为混合整数线性规划设计的、类似于OpenAI Gym的机器学习库。我们将了解MIP求解器的基本工作原理,以及Ecole如何为机器学习方法集成到求解过程中提供环境。


组合优化求解器:我的视角

上一段我们提到了Ecole库的目标领域。本节中,我们来看看组合优化求解器,特别是混合整数线性规划求解器的核心机制。

MIP求解器的目标是找到问题的最优解。这通过维护和收紧两个边界来实现:

  • 上界:对应一个可行解。对于最小化问题,这是目前找到的最好(即目标值最小)的可行解。其目标值记为 UB
  • 下界:通过求解问题的松弛版本(如线性规划松弛)获得。它代表了理论上可能达到的最佳目标值。对于最小化问题,任何可行解的目标值都不会低于此值。其目标值记为 LB

求解过程就是不断改进这两个边界,直到它们相等或足够接近。此时,我们就找到了最优解。


Ecole库的设计目标

理解了求解器的基本框架后,本节我们探讨Ecole库要解决的核心问题:如何将机器学习有效地集成到上述求解过程中。

传统的MIP求解器(如SCIP、CPLEX)是复杂的软件,内部有众多算法和启发式规则。直接修改其代码以嵌入机器学习模型非常困难。Ecole旨在提供一个标准化的接口,将求解器变成一个“环境”,就像在强化学习中训练智能体玩游戏一样,研究人员可以训练模型来做出决策,以加速求解过程。

Ecole库允许机器学习模型在求解过程的特定节点进行干预,例如:

  • 在分支定界时选择哪个变量进行分支。
  • 决定是否以及添加哪种割平面。
  • 选择搜索树中下一个要探索的节点。

以下是Ecole库工作流程的一个概念性伪代码:

import ecole

env = ecole.environment.Branching()  # 创建一个用于分支决策的环境
observation, action_set, reward, done, info = env.reset(instance)  # 载入一个MIP问题实例

while not done:
    # 机器学习模型根据当前观察(observation)做出决策
    action = model(observation, action_set)
    # 在环境中执行该动作(例如,选择分支变量)
    observation, action_set, reward, done, info = env.step(action)

总结

本节课我们一起学习了Ecole库的基本概念。我们首先回顾了混合整数线性规划求解器通过维护上界和下界来寻找最优解的原理。接着,我们介绍了Ecole库如何将复杂的求解器抽象为一个标准的机器学习环境,使研究人员能够便捷地开发和测试用于加速MIP求解的机器学习算法,特别是在分支、割平面选择等关键决策点上。Ecole为组合优化与机器学习的交叉研究提供了一个重要的工具平台。

017:计算浮点运算,让运算有价值!⚡

在本节课中,我们将探讨深度学习在组合优化领域的应用。我们将回顾一个经典案例,并深入分析其背后的动机与挑战,特别是将深度学习用于组合优化与用于机器翻译等任务之间的关键区别。

引言:从旅行科学家问题说起

今天我们将讨论深度学习在组合优化中的应用。我将介绍一些与同事共同完成的工作。

我们首先从深度学习用于组合优化的一个经典例子——旅行科学家问题开始。大约两年前,我们发表了一篇与此相关的论文,本周一的一场精彩演讲也讨论了这个话题。我将快速回顾其工作原理。

我们从一个问题实例开始,将其输入神经网络。神经网络会预测下一步应该移动到哪里。然后,我们将这个部分解决方案反馈给神经网络,它会告诉我们下一步该去哪里。最终,这个过程会生成一个解决方案,让我们能尽快返回咖啡角。

背景与演变

这篇论文是沿袭早期同类工作的后续研究。自那以后,情况发生了很多变化。例如,科学家们现在不再需要实地旅行了。

技术已经改变,在虚拟会议中,我们可以直接传送到你选择的海报前。这非常有趣,因为这正是该算法设计时所针对的应用场景。我们可以重新训练模型,让它自行学习在当前环境下无关紧要的因素,以及你的访问顺序应该是什么。

深入动机:与机器翻译的类比

我想更深入地探讨一下,采用这种解决方案背后的动机是什么。正如周一的演讲中可能提到的,很容易将其与机器翻译进行类比。

在机器翻译中,我们试图通过预测句子的翻译来生成好的译文。如果将其与组合优化进行比较,我们至少可以将组合优化问题视为尝试为我们拥有的问题实例预测一个解决方案。

但我想强调的是,如果我们这样做,必须非常小心。因为尽管我们可以使用相同的解决策略,但这些问题可能并不相同。让我对此进行更详细的阐述。

核心区别:学习问题与搜索问题

如果我们考虑机器翻译,问题实际上有不同的方面。

首先,最主要的是我称之为“翻译评估”的问题,即判断某个翻译是否优秀。这是一个学习问题,涉及数据和模型。

其次,是实际使用这个模型来找到一个好翻译的问题,这更多是一个搜索问题


本节课中,我们一起学习了深度学习在组合优化中的应用,特别是通过旅行科学家问题的案例。我们回顾了其基本流程,并探讨了将深度学习用于组合优化与用于机器翻译任务的根本区别:前者同时涉及学习(评估解决方案质量)和搜索(生成解决方案)两个层面,而后者更侧重于学习后的生成过程。理解这一区别对于设计有效的组合优化深度学习模型至关重要。

018:多少数据足以学习高性能算法? 📊

在本节课中,我们将探讨一个核心问题:为了通过机器学习自动配置算法参数,究竟需要多少训练数据?我们将以序列比对问题为例,介绍数据驱动算法设计的基本概念、目标与挑战。


概述

在之前的讨论中,我们多次看到算法通常包含大量可调参数。这些参数对算法的运行时间和求解质量有显著影响。手动调整这些参数是一个众所周知耗时、繁琐且易出错的过程。因此,数据驱动算法设计的目标是借助机器学习,自动化算法配置或参数调优的过程。

我们希望利用来自特定应用领域的一组典型问题实例(即训练集),通过算法找到良好的参数设置。理想的参数设置不仅应在训练集上表现良好,还应能泛化到来自同一应用领域但未出现在训练集中的未来输入上。

序列比对:一个运行示例

为了贯穿本次讲解,我将使用一个组合优化问题作为运行示例:序列比对。序列比对在生物学、自然语言处理等领域有广泛应用。

序列比对算法的输入是一对序列,例如 SS'。输出是这两个序列的一个比对结果。我们可能关心比对的多个特征,例如:

  • 匹配数:字符完全相同的位点数量。
  • 错配数:字符不同的位点数量。
  • 插入/缺失数:一个序列的字符与另一个序列的“缺口”字符对齐的数量。
  • 缺口开放数:连续缺口字符序列的数量。

参数化的动态规划算法

以下是解决此组合优化问题的标准动态规划算法,它由三个可调参数 ρ1ρ2ρ3 定义。

该算法使用动态规划来寻找一个比对,以最大化以下参数化的目标函数:

目标函数公式
目标值 = 匹配数 - ρ1 * 错配数 - ρ2 * 插入缺失数 - ρ3 * 缺口开放数

在这个公式中,ρ1ρ2ρ3 是惩罚权重,用于在匹配奖励与各种不匹配情况的惩罚之间进行权衡。不同的参数设置会导致算法产生具有不同特征的比对结果。

数据驱动设计的目标与挑战

我们的核心目标是:给定一个来自目标应用领域的典型问题实例集合(训练集),自动学习出最优的参数向量 ρ = (ρ1, ρ2, ρ3)

这引出了本节课标题中的关键问题:需要多少训练数据(即多少个问题实例)才足以学习到一个高性能的、能够良好泛化的参数配置?

这个问题至关重要,因为收集和标注真实世界的问题实例可能成本高昂。我们需要理解数据量、学习到的参数性能以及泛化能力之间的关系。


总结

本节课我们一起学习了数据驱动算法设计的基本框架。我们了解到,算法参数调优可以形式化为一个机器学习问题,其目标是在训练实例上学习最优参数,并期望该参数能泛化到新实例。我们以序列比对的动态规划算法为例,展示了其参数化的目标函数。最后,我们提出了一个核心研究问题:确定足以学习高性能算法所需的最小数据量,这是实现该方法实用化的关键。在接下来的章节中,我们将深入探讨如何量化并回答这个问题。

019:用于(可微分)组合优化的快速半定规划

概述

在本节课中,我们将探讨如何将半定规划松弛技术应用于组合优化问题,并重点介绍如何使其适应现代可微分学习架构。我们将从半定松弛的基本概念开始,逐步深入到其高效求解方法及其与深度学习的结合。

半定规划松弛简介

上一节我们概述了课程主题,本节中我们来看看半定规划松弛的基本思想。组合优化问题,如图割、推理、可满足性等,都是在离散结构上进行推理的问题。众所周知,这些问题都可以通过半定规划进行松弛求解。

半定规划是一种优化技术,其经典形式是最小化矩阵X的某个线性函数,并满足一系列关于X的等式、不等式约束以及一个半定约束(即X是半正定矩阵)。通过这种方式,我们可以将离散的组合问题嵌入到一个连续的向量空间中,从而利用连续优化技术进行求解。

半定规划的核心形式

以下是半定规划问题的标准数学描述:

目标:最小化线性函数 C • X(即矩阵C和X的内积)。
约束

  1. 对于所有 i,有 A_i • X = b_i(线性等式约束)。
  2. X ≽ 0(半定约束,表示矩阵X是半正定的)。

这个框架的强大之处在于,许多NP难的组合优化问题都可以被松弛为这种形式的半定规划问题,从而得到原问题最优解的一个近似下界(对于最小化问题)或上界(对于最大化问题)。

快速求解与可微分性

传统的半定规划求解器可能计算量较大。为了使半定松弛能够高效地集成到基于梯度的深度学习模型中,我们需要解决两个关键问题:求解速度和计算图的可微分性。

我们的工作重点在于开发快速的、可微分的半定规划求解方法。这使我们能够将组合推理层作为神经网络的一部分进行端到端训练。以下是实现这一目标的几个核心思路:

  1. 使用一阶优化方法:我们采用基于梯度的优化算法(如投影梯度下降)来求解半定规划问题,这比传统的内点法更快,更适合处理大规模问题。
  2. 保证可微分性:通过设计特定的求解流程,确保从问题参数(如系数矩阵C)到解矩阵X的映射是连续且可微的,从而允许梯度反向传播。
  3. 利用问题结构:针对特定的组合问题(如最大割),我们可以利用其半定松弛的特殊结构来设计更高效的定制化算法。

总结

本节课中,我们一起学习了半定规划松弛在组合优化中的应用。我们首先介绍了半定规划如何为离散组合问题提供连续松弛。接着,我们探讨了为了将此类松弛整合进深度学习管道,所需解决的快速求解与可微分性挑战。通过采用一阶优化方法并精心设计求解器,我们可以创建高效且可微的组合优化层,从而为神经模型注入复杂的推理能力。

020:通过并行网络单纯形法进行离散最优传输

在本节课中,我们将从组合优化的视角介绍最优传输问题,并探讨如何利用并行网络单纯形法,特别是GPU加速,来解决该问题。我们将回顾最优传输的历史与数学基础,并展示其在机器学习中的应用潜力。

最优传输简介:从蒙日到康托洛维奇

上一节我们概述了课程内容,本节中我们来看看最优传输问题的起源与发展。

最优传输是一个古老的问题,由蒙日在其原始论文中提出,他讨论了分子分布的移动问题,即如何将分子从一个给定的初始形状移动到目标形状。如今,当我们谈论最优传输时,通常指的是概率分布的传输。

蒙日的原始问题可以被表述为一个组合优化问题。

具体来说,它可以被表述为一个指派问题,该问题可以在二分图上通过流算法在强多项式时间内求解,其复杂度为 O(n³)

从蒙日之后,康托洛维奇做出了极其重要的贡献。他不仅是线性规划对偶理论的发明者,也是引入传输度量的研究者。如今,康托洛维奇度量已成为基础度量。康托洛维奇的原始工作受到资源优化问题应用的启发,并以俄文写成。

在组合优化术语中,康托洛维奇问题的表述与蒙日不同,因为我们从指派问题转向了运输问题,其强多项式复杂度在二分图上上升至 O(n³ log n)。这是一个重要的区别。

网络单纯形法在机器学习中的应用

上一节我们回顾了最优传输的数学基础,本节中我们来看看网络单纯形法在机器学习中的潜在应用。

我将提前介绍网络单纯形法在机器学习中的应用。

并行网络单纯形法的技术描述

上一节我们提到了应用前景,本节中我们将深入探讨一种可能的技术实现。

现在,我将转向对一个可能的并行网络单纯形法实现进行简要的技术描述,该实现试图利用GPU进行计算。

计算结果展示

以下是部分计算结果的展示。

本节课中,我们一起学习了最优传输问题从蒙日到康托洛维奇的发展历程,理解了其作为组合优化问题的数学表述(如复杂度为 O(n³) 的指派问题)。我们还探讨了网络单纯形法在机器学习中的应用潜力,并简要介绍了一种旨在利用GPU加速的并行网络单纯形法实现。最后,我们预览了相关的计算结果。

021:在机器学习中整合下游组合学

概述

在本节课中,我们将学习一种名为“决策导向学习”的方法。这种方法的核心思想是,在训练机器学习模型时,不仅要考虑预测的准确性,还要考虑模型预测结果如何影响后续的决策过程。我们将探讨如何将下游组合优化问题的知识整合到机器学习模型的训练中,以提升最终决策的整体质量。


感谢Peter。很高兴能与如此出色的演讲者们一同在此,展示过去三到四年间我们在深度学习与组合优化交叉领域所见证的进展。这个领域确实在快速发展,它是一个充满潜力、令人兴奋的研究领域。

我们见证了多种尝试,从试图用纯粹的深度学习方法取代组合优化算法,到将机器学习整合到离散优化算法中。

我在这个领域也做了一些工作,主要是与我以前在加拿大多伦多大学担任助理教授的博士生Elias Cail合作。我们的基本思路是,尝试通过整合机器学习引导的组件,使现有的组合算法变得更智能。

在这个方向上,我们做过一些工作,例如:使用强化学习训练图优化算法的贪心算法。Li So在本次研讨会早些时候已经讨论过这项工作。或者,使用机器学习来引导混合整数规划中的分支定界法,包括分支和原始启发式选择。本周早些时候的研讨会上,我们也看到了一些后续的改进成果。

但是,今天我想讨论一个略有不同的整合方向。我们思考的是,如何将后续约束性决策(即组合决策)的知识融入到机器学习中。我们希望将关于下游组合优化的知识整合到训练过程中。

我今天要介绍的工作,主要是在Brian Weder还在南加州大学时与他合作的成果。Brian现在在哈佛大学,并且实际上正在求职市场上。

在许多实际应用中,我们有一个熟悉的流程:我们有一些观测数据,利用这些数据学习模型以进行预测,然后根据这些预测为后续步骤做出资源分配等决策。

大多数时候,在现实世界中处理这些场景的方式是:首先构建一个尽可能准确的机器学习模型,即最大化预测准确性。完成这一步后,我们将模型交给优化团队。优化团队会建立一个好的模型和算法(例如混合整数规划、贪心算法等),其目标是最大化决策质量。


总结

本节课中,我们一起学习了“决策导向学习”的基本概念。我们了解到,传统的流程是先将机器学习模型的预测准确性最大化,再将其用于优化决策。而决策导向学习则提倡在模型训练阶段就考虑下游的组合优化问题,将决策质量作为训练目标的一部分,从而实现从预测到决策的端到端优化。这种方法旨在弥合预测模型与最终决策之间的鸿沟,提升整体系统的性能。

022:图神经网络中的任务结构与泛化

在本节课中,我们将探讨图神经网络在算法推理任务中的泛化与泛化外推能力。我们将从理解这些特性的角度出发,分析网络架构与任务结构如何影响其学习效果。

感谢Pe的介绍,也感谢大家的聆听和本次研讨会的邀请。我很荣幸能在此发言,并享受之前的精彩报告。今天,我想从理解特性的角度,讨论图神经网络的泛化与外推能力。这是与我的多位合作者,特别是我的学生Qulu,共同完成的工作。

本次报告的主题是算法推理。算法推理是什么?在之前的报告中我们已经有所了解,其本质是让神经网络学习一个完整的优化算法。可能出现的、你试图学习回答的问题包括:给定一组物品,找出颜色最不相似的一对物体;在物理推理中,预测物理系统的下一个状态;或者计算诸如最短路径之类的问题。

在所有这些任务中,你本质上都是给定一个由某些物品构成的集合,这些物品以某种方式相互作用。首先,你需要感知这些物品,并将它们编码为特征向量。然后,你试图对这些物品进行推理并回答问题。

这本质上与Peter在周二报告的内容相似。但与他的报告不同,今天我将聚焦于这个流程的第二部分,试图理解如何学习这种推理。我将假设我们已经完成了感知步骤,并且已经以特征向量(例如颜色、位置等)的形式编码了我们的对象。我们只是试图学习如何回答问题,因此本质上我们只是在学习算法。

我想理解的是,不同的神经网络学习这种推理任务的效果如何,以及它们为何能或不能做到。这本质上是一个关于泛化的问题。我将从两个不同的部分来审视它:第一部分是观察标准的泛化方式,即给定训练分布,观察来自同一分布的数据,并将泛化性能与架构结构及任务结构联系起来。在报告的第二部分,我将进一步探讨外推,即现在你看到的数据来自不同的分布。你的方法还能否有效?这取决于什么?

让我们从泛化开始。由于图神经网络将在此扮演重要角色,让我快速回顾一下什么是图神经网络。

023:结合强化学习与约束规划进行组合优化

在本节课中,我们将探讨如何将强化学习与约束规划相结合,以解决组合优化问题。我们将了解传统求解器的局限性,并学习一种能够从重复求解中不断改进的新方法。

概述

组合优化问题求解困难。我们需要从一组离散的解中选出最优解,这组解甚至可能不连续。然而,这些问题在交通、物流、医疗和零售等领域至关重要,并且需要频繁求解。

传统求解器的现状

上一节我们介绍了组合优化问题的普遍性与重要性。本节中,我们来看看目前用于解决这些问题的传统求解器。

我们通常使用整数规划、约束规划或SAT求解器来解决物流、医疗或供应链中出现的组合问题。这些求解器依赖于某种形式的分支定界或解空间探索,属于完备方法。它们能提供最优性保证,即使找不到最优解,也能给出对偶界,以衡量与潜在最优解的差距。同时,存在一些通用求解器,部分为商业软件,部分为开源免费软件。

然而,其缺点在于,这种完备探索需要时间。更重要的是,即使日复一日地解决相同类型的问题,求解器自身并不会像人类专家那样随着时间的推移而改进。我们没有充分利用重复求解这些问题的经验。

学习型求解器的动机

既然传统求解器无法自我进化,那么如何让求解过程变得更高效呢?这正是本次研讨会中许多人尝试探索的方向:我们能否从对同一问题的多次求解中学习,从而提高效率?

以下是几种可能的实现途径:

  • 学习启发式策略:学习如何更有效地进行分支决策或变量赋值。
  • 学习问题简化:学习识别并移除对最优解影响不大的约束或变量。
  • 学习求解策略:为不同类型的问题子结构配置最佳的求解参数。

结合强化学习与约束规划的方法

接下来,我们将重点介绍一种具体的方法:将强化学习与约束规划相结合。

我们的目标是训练一个策略,使其能够模仿约束规划求解器在搜索树节点上所做的决策。我们使用图神经网络来编码当前求解状态(即部分赋值后的约束满足问题),并输出一个决策,例如选择哪个变量进行赋值。

以下是该方法的简化流程描述:

  1. 将当前CSP(约束满足问题)状态编码为图。
  2. 使用GNN处理该图,得到节点(变量)和边(约束)的嵌入向量。
  3. 基于嵌入向量,通过策略网络预测下一个要赋值的变量。
  4. 执行赋值,更新CSP状态,并进入下一个决策步骤。

这个训练过程可以形式化地表示为一个强化学习问题。智能体(策略网络)在环境(约束规划求解器)中行动,其目标是最大化累积奖励,例如最小化最终求解时间或搜索树大小。

总结

本节课中,我们一起学习了如何将强化学习与约束规划结合以改进组合优化求解。我们首先指出了传统完备求解器无法从经验中学习的局限性。然后,我们探讨了让求解器“学习”的动机与可能途径。最后,我们详细介绍了一种使用图神经网络和强化学习来学习变量分支策略的方法,该方法能够使求解器在重复求解同类问题时变得越来越高效。

深度学习与组合优化:P24:通过嵌入空间上的深度强化学习进行任务驱动的网络发现

在本节课中,我们将学习如何利用深度强化学习模型,在嵌入空间中进行任务驱动的网络发现。我们将探讨在复杂网络通常只能被部分观测的现实下,如何高效地发现对特定下游任务至关重要的网络结构。


首先,我要感谢IPAM的组织者。我自2004年起就与IPAM结缘,曾组织过长期和短期项目。即使不在学术界时,我也曾作为工业导师参与他们的工业合作研究项目。IPAM是一块瑰宝,非常感谢你们主办这次活动,我深知其中需要付出多少努力。

今天,我将向大家介绍我们关于“任务驱动网络发现”的研究工作。随着讲解深入,我们使用的深度强化学习模型会变得清晰,但核心理念是聚焦于“任务驱动”的网络发现。这项研究与Ramunnda Cascers博士(她在参会者名单中,感谢Ramunnda来听讲,如果我说错了什么她可以纠正我)以及我们的同事Peter Mores共同完成。Ramunnda在MIT林肯实验室,Peter在我们进行这项研究时也在MIT林肯实验室,并于今年早些时候加入了微软。这项研究即将发表在《应用网络科学》期刊上,该期刊隶属于网络科学研究所。现在能在网络科学领域的平台发表文章,这很有趣。

复杂网络无处不在。如果你还没有接受这个观点,请联系我,我很乐意与你分享相关资料。无论你感兴趣的是社会、物理还是技术现象,你都知道实体之间的依赖关系。因此,你希望学习连接各种元素的复杂拓扑结构的预测性和描述性模型,这包括技术网络、社交网络、信息网络和生物网络。然而,这张幻灯片上存在一个不实之处:部分观测的复杂网络无处不在,但完全观测的复杂网络并不像我们期望的那样普遍。

你所感兴趣的现象常常是部分可观测的。例如,当前我们非常希望拥有完全观测的接触网络,以便进行疫情追踪和控制。此外,收集更多数据通常是困难或昂贵的。最后,即使你拥有世界上所有的数据,也可能没有足够的计算能力;即使拥有足够的计算能力,出于气候变化或其他原因,你可能也不希望动用全部的计算资源。

当然,我们都知道,当你在部分观测的网络上工作时,你拥有的数据可能不足以支撑你关心的下游任务。


问题背景与动机

上一节我们提到了网络数据部分观测的普遍性。本节中,我们来看看这引出的核心问题:网络发现

网络发现是指,在给定一个部分观测的网络(即已知部分节点和边)的情况下,通过有选择地查询(例如,通过实验或数据收集)未知的边,来逐步揭示更完整的网络结构。关键在于,我们通常有特定的下游任务(如节点分类、链路预测、社区检测等),发现网络的目的就是为了更好地完成这些任务。因此,我们需要一种任务驱动的方法,智能地决定查询哪些边,以最小的成本最大程度地提升任务性能。

传统方法可能随机查询或基于网络本身的中心性指标进行查询,但这些方法没有考虑下游任务的具体需求。我们的目标是开发一种方法,能够根据任务反馈,自适应地、高效地指导网络发现过程。


方法概述:嵌入空间与深度强化学习

为了解决上述问题,我们提出了一个结合网络嵌入深度强化学习的框架。其核心思想是将网络发现过程建模为一个顺序决策问题。

以下是该框架的关键步骤:

  1. 网络嵌入:首先,我们将当前已观测到的网络(随着发现过程会动态变化)映射到一个低维的嵌入空间。每个节点由一个稠密向量表示,即 node_embedding = f(G_observed)。这个嵌入捕获了节点的结构信息。
  2. 强化学习建模
    • 智能体:我们的网络发现算法。
    • 状态:在每一步,状态是当前已观测网络的嵌入表示。我们可以将其表示为所有节点嵌入的集合或一个全局图嵌入。
    • 动作:从候选的未观测边中选择一条进行查询。动作空间是所有可能缺失的边。
    • 奖励:查询一条边并将其加入观测网络后,我们在更新后的网络上运行下游任务模型(例如,一个分类器),其性能的提升(如准确率的增加)作为奖励。奖励公式可以简化为:Reward = Performance(G_new) - Performance(G_old)
    • 策略:一个深度神经网络,它接收当前状态(图嵌入),并输出选择每条候选边的概率。策略网络的目标是学习一个策略 π(a|s),以最大化长期累积奖励。
  3. 训练与执行:我们使用深度强化学习算法(如策略梯度或Actor-Critic方法)来训练这个智能体。训练完成后,智能体可以应用于新的部分观测网络,智能地选择边进行查询,以高效地优化下游任务。


总结

本节课中,我们一起学习了任务驱动网络发现的问题背景和解决方法。

  • 我们认识到完全观测的网络很少见,网络发现是一个关键且具有挑战性的问题。
  • 我们提出将网络发现过程形式化为一个顺序决策问题,其目标是最优化特定的下游任务性能。
  • 我们介绍了一个创新的框架,该框架结合了网络嵌入技术来表征状态,并利用深度强化学习来学习最优的发现策略。这个框架能够根据任务反馈自适应地指导查询,实现高效、智能的网络发现。

通过这种方法,我们可以在数据收集成本高昂或计算资源有限的情况下,更有效地揭示网络结构,从而为后续的分析和预测任务提供更高质量的数据基础。

025:隐私保护下的深度学习

概述

在本节课中,我们将探讨一个核心问题:如何在保护数据隐私的前提下进行深度学习。我们将介绍一种名为“Inhe”的方法,它允许在不泄露原始数据的情况下训练深度神经网络。课程将涵盖其应用场景、技术背景以及联邦学习的基本框架。


引言与背景

感谢邀请,很高兴能在本次研讨会上发言。

我过去的研究领域是组合算法或组合优化,特别是在NPR问题的背景下。近十年来,我的兴趣转向了深度学习和其他机器学习技术。

本次演讲的主题是“Inhe”,这是一种允许在您的数据上进行深度学习而无需泄露数据本身的想法。

这项工作是与我指导的研究生杨希博、博士后赵宗、同事Kaaili共同完成的。此外,还有一篇关于“textt”的第二篇论文,由同一团队以及另一位同事Don Qhenhen共同参与。

问题:隐私与效用的权衡

当今互联世界的运行建立在一项默认的交易之上。

我们将自己的数据提供给企业,作为回报,我们获得了经过训练并为我们量身定制的智能设备世界。

但我们不禁要问,这种现状是必然的吗?

我们需要认识到,智能世界越来越依赖于大型深度网络,这些网络使用某种形式的反向传播算法,在我们的数据上进行训练和定制。

从现在开始,这个勤劳的蓝色小图标将代表标准的深度网络训练过程。

这引出了我们看似矛盾的问题:能否在不让我们泄露数据的情况下,对我们的数据进行深度学习?

如果答案是肯定的,那么这里有一些应用场景:

  • 医院希望利用患者数据训练深度网络,但隐私法禁止他们将数据交给他人。
  • 用户群体可能希望使用他们的聊天记录来定制Gbo,而不泄露这些聊天内容。
  • 更广泛地说,上述问题的解决方案将开始从根本上改变当今大型科技公司所依赖的关于隐私与效用权衡的隐含假设。

两种不同的应用场景

在这个领域,需要注意两种不同的设置:

  1. 计算能力强大的客户端场景:例如医院,它们使用私有数据在中央服务器上协作训练一个深度网络。
  2. 大量轻量级设备场景:例如物联网设备,它们将用户数据发送到中央服务器,以进行深度学习,实现所有用户都将受益的目标。

我们将主要解决第一种设置,但该解决方案也适用于第二种设置,尽管对于第二种设置可能没有那么安全。

联邦学习框架

联邦学习是思考此类问题的一个框架,尤其适用于我们的第一个示例场景。

我们的运行示例将是:医院试图在不泄露患者数据的情况下训练一个深度网络。


总结

本节课中,我们一起学习了在隐私保护下进行深度学习的核心挑战与前景。我们探讨了“Inhe”方法的基本概念,分析了数据隐私与模型效用之间的权衡问题,并介绍了适用于不同场景的联邦学习框架。理解这些基础,是迈向构建既强大又尊重用户隐私的下一代人工智能系统的第一步。

posted @ 2026-03-26 08:54  布客飞龙II  阅读(0)  评论(0)    收藏  举报