RG-Explainer | Reinforcement Learning Enhanced Explainer for Graph Neural Networks | NeurIPS 2021
论文信息
论文标题:Reinforcement Learning Enhanced Explainer for Graph Neural Networks
论文作者:
论文来源:NeurIPS 2021
论文地址:link
论文代码:link
Abstract
一、GNN 的核心价值与解释难点
1. GNN 的技术定位
- 身份:近年来兴起的图数据机器学习革命性技术,可处理节点分类、图分类、链接预测等经典图任务,同时适用于直觉物理、数学推理、IQ 测试等推理任务。
- 核心机制:通过消息传递方案(message passing scheme) 将图结构与节点表示融合,即每一层节点会聚合邻居节点的信息来更新自身嵌入,实现对图拓扑和节点特征的联合利用。
2. GNN 解释的核心目标与本质
- 解释目标:针对训练好的 GNN 模型,设计GNN 解释器(GNN explainer),找到对实例(如单个节点、整个图)预测结果最具影响力的子图,以此解释模型预测逻辑。
- 问题本质:GNN 解释本质是图上的组合优化问题—— 需从海量可能的子图中,筛选出满足 “影响力最大化” 且通常受 “尺寸约束” 的最优子图。
二、现有 GNN 解释方法的缺陷
现有方法主要分为两类,但均存在关键问题,导致解释性能不佳:
|
方法类型 |
代表思路 |
核心缺陷 |
|
连续松弛法 |
(如 GNNExplainer、PGExplainer)通过优化边的软掩码矩阵,再按阈值筛选重要节点 / 边 |
1. 无法保证输出子图的连通性,难以体现 GNN 的消息传递路径;2. 独立计算每条边的重要性,忽略节点与边之间的交互关系 |
|
基于搜索的启发式方法 |
(如 SubgraphX、Causal Screening)设计搜索准则,通过搜索算法寻找最优子图 |
1. 依赖人工设计的启发式准则,准则仅适用于特定场景,通用性差;2. 受图的组合特性限制,难以设计普适性强的搜索策略 |
三、RG-Explainer 的核心设计
1. 整体定位
- 技术属性:强化学习增强的 GNN 解释器,通过 RL 机制解决组合优化问题,同时适配 GNN 的消息传递特性。
- 核心优势:生成连通的解释子图、无需人工设计启发式准则、泛化能力强。
2. 三大核心组件
|
组件名称 |
功能描述 |
解决的关键问题 |
|
起点选择(Starting Point Selection) |
1. 节点分类任务:直接以待解释节点为起点;2. 图分类任务:通过 “种子定位器(seed locator)” 学习节点对图标签的影响力,筛选最具影响力的节点作为起点 |
避免人工指定起点的主观性,确保起点与预测结果强相关 |
|
迭代图生成(Iterative Graph Generation) |
从当前生成子图的边界(boundary) 中依次选择节点加入,逐步构建子图 |
1. 保证解释子图的连通性,与 GNN 的消息传递逻辑一致;2. 避免无关节点 / 边的引入,提升解释子图的简洁性 |
|
停止准则学习(Stopping Criteria Learning) |
通过学习的准则判断当前子图是否满足解释需求,避免生成过大的子图 |
替代人工设定停止条件,确保子图 “紧凑且有效”,平衡解释完整性与简洁性 |
四、RG-Explainer 的实验表现与泛化能力
1. 性能验证
-
实验数据:覆盖合成数据集(如 BA-shapes、TreeCycles)与真实数据集(如 Mutagenicity 分子图数据集),全面验证不同场景下的解释效果。
-
核心结论:在解释性能上优于当前最先进(state-of-the-art)的 GNN 解释器,体现在能更精准捕捉对预测关键的子图(如分子图中的活性 motif)。
2. 泛化能力
-
关键特性:可应用于归纳式设置(inductive setting),即能对训练过程中未见过的新图 / 节点生成有效解释。
-
价值:突破传统解释器 “仅适用于训练数据分布内样本” 的局限,提升在实际动态数据场景中的实用性。
1 Introduction
一、GNN 的技术定位与核心优势
-
技术定义:图神经网络(Graph Neural Networks, GNNs)是针对图结构数据的机器学习模型,通过消息传递机制(message passing scheme) 将图的拓扑结构与节点特征融合,生成节点表示。
-
任务覆盖范围:
-
经典图机器学习任务:节点分类 [10,28]、链接预测 [38]、图分类 [33],且在这些任务中实现了当前最优(state-of-the-art)性能。
-
推理类任务:直觉物理 [4]、数学推理 [24]、IQ 测试 [3] 等复杂场景。
-
核心局限:与多数深度学习方法类似,GNN 缺乏对预测结果的可解释性(interpretability),需通过事后分析(post-hoc analysis)解释预测逻辑。
二、GNN 解释器的目标与问题形式化
-
解释器核心目标:针对训练完成的 GNN 模型,设计 GNN 解释器(GNN explainer),识别对实例(如单个节点、整个图)预测标签最具影响力的子图结构,以此揭示模型预测的关键依据。
-
问题数学形式化:GNN 解释本质是带约束的组合优化问题,目标函数为:在子图尺寸约束下,最大化 “预测结果与相关子图分布之间的互信息(mutual information)”。
三、现有 GNN 解释方法的缺陷分析
现有方法主要分为两类,但均存在关键问题,导致解释性能不佳,具体如下表所示:
-
连续松弛法
-
代表方法:GNNExplainer[34]、PGExplainer[17]
-
核心思路:对边的重要性构建软掩码矩阵,通过优化掩码矩阵,再按阈值筛选重要节点 / 边
-
关键缺陷:1. 连通性缺失:无法保证输出子图的节点与边连通,难以直观体现 GNN 的消息传递路径;2. 忽略交互:独立计算每条边的重要性,未考虑选中节点与边之间的相互作用
-
-
基于搜索的启发式方法
-
代表方法:SubgraphX[37]、Causal Screening[31]
-
核心思路:设计人工搜索准则,通过搜索算法(如蒙特卡洛树搜索、贪心搜索)寻找最优解释子图
- 关键缺陷:1. 准则局限性:依赖人工设计的启发式搜索准则,准则仅适用于特定场景,通用性差;2. 组合复杂度挑战:受图的组合特性限制,难以设计适用于各类图结构的普适性搜索策略
-
四、RG-Explainer 的提出与核心设计思路
-
提出动机:针对现有方法的连通性缺失、启发式依赖等问题,提出强化学习增强的 GNN 解释器(RG-Explainer),利用 RL 解决图上组合优化问题,适配 GNN 消息传递特性。
-
核心框架灵感:借鉴经典组合优化求解器的思路,设计三大关键步骤,协同生成有效解释子图:
-
步骤 1:起点选择(Starting Point Selection):确定解释子图的初始种子节点,确保起点与预测结果强相关。
-
步骤 2:迭代图生成(Iterative Graph Generation):从当前子图边界依次选择节点,保证子图连通性,符合消息传递逻辑。
-
步骤 3:停止准则学习(Stopping Criteria Learning):自动判断子图生成是否终止,避免子图过大或信息冗余。
-
额外优势:具备更好的泛化能力,可同时应用于转导式设置(transductive setting) 与归纳式设置(inductive setting),突破部分解释器仅适用于训练数据的局限。
-
实验设计:在合成数据集与真实数据集上开展大量实验,对比 RG-Explainer 与当前最优 GNN 解释器的性能。
-
验证维度:
-
定量评估:通过指标(如 AUC)衡量解释子图与真实关键子图(如 motif)的匹配度。
-
定性评估:通过可视化展示解释子图的简洁性与关键信息捕捉能力。
-
-
-
泛化性验证:在归纳式设置下测试模型对未见过实例的解释效果。
-
-
2 Preliminary
问题定义(GNN 解释器的目标形式化)
明确 GNN 解释器的数学目标,为后续 RG-Explainer 的设计提供优化方向,具体如下:
1、输入与输出:
- 输入:训练完成的 GNN 模型 $ f(\cdot)$ 、待解释的图 $ G=(V, E)$ ;
- 输出:解释子图 $ S=(V_S, E_S)$ ,其中 $ V_S \subseteq V$ (子图节点集)、$ E_S \subseteq E$ (子图边集),且 $ S$ 需能反映 GNN 预测的关键依据。
2、核心优化目标:
最大化 “原预测标签” 与 “基于解释子图的预测分布” 之间的互信息(Mutual Information, MI),公式为:
$ \max_{S} \text{MI}(Y, S) = H(Y) - H(Y \mid S) $
- 符号说明:
- $ Y = f(G)$ :GNN 对原图 $ G$ 的预测标签;
- $ H(\cdot)$ :熵函数,衡量随机变量的不确定性;
- $ H(Y \mid S)$ :给定解释子图 $ S$ 后,预测标签 $ Y$ 的条件熵,反映 $ S$ 对 $ Y$ 的解释能力(条件熵越小,解释能力越强)。
3、目标简化:
由于在解释阶段,原图 $ G$ 的预测标签 $ Y$ 已固定,其熵 $ H(Y)$ 为常数,因此优化目标可简化为:
$ \min_{S} H(Y \mid S) $
即寻找能最小化 “基于子图的预测不确定性” 的解释子图 $ S$ 。
3 Methodology
3.1 核心目标与问题定位
- 核心目标:针对 GNN 解释的核心优化目标 $\min_{S} H(Y \mid S)$ (最小化 “基于解释子图 $S$ 的预测标签条件熵”),设计基于强化学习(RL)的解决方案,通过三大关键组件(迭代图生成、停止准则学习、起点选择)生成连通、简洁且有效的解释子图。
- 问题本质: $\min_{S} H(Y \mid S)$ 是图上的组合优化问题—— 由于图中可能的子图数量呈指数级增长,无法暴力枚举,需通过 RL 的 “状态 - 动作 - 奖励” 框架动态搜索最优子图。
3.2 组件 1:迭代图生成(Graph Generator)
迭代图生成是 RG-Explainer 的核心模块,通过 RL 的 “状态 - 动作 - 目标 - 奖励” 循环,从种子节点开始逐步扩展子图,确保子图连通性(符合 GNN 消息传递逻辑)。
1. 状态(State):刻画当前生成进度与节点信息
状态需融合 “种子节点、当前子图、边界节点” 的信息,为节点选择提供依据,具体步骤如下:
-
- 步骤 1:特征增强
- 设第 $t$ 步的当前子图为 $S_{t-1} = \{v_0, v_1, \cdots, v_{t-2}\}$ ( $v_0$ 为种子节点),边界节点为 $\partial S_{t-1}$ ( $S_{t-1}$ 的邻居节点中未包含在 $S_{t-1}$ 内的节点)。对 $S_{t-1} \cup \partial S_{t-1}$ 中的每个节点 $v$ ,增强其原始特征 $x_v$ :
- 步骤 1:特征增强
$ x_v' = [x_v, \mathbb{1}_{\{v \in \{v_0\}\}}, \mathbb{1}_{\{v \in S_{t-1}\}}] $
-
-
- 其中 $\mathbb{1}$ 为指示函数( $v$ 是种子节点则第 2 项为 1, $v$ 在当前子图则第 3 项为 1),增强后得到特征矩阵 $X_t' = [x_v']_{\forall v \in S_{t-1} \cup \partial S_{t-1}}$ 。
- 步骤 2:邻域信息聚合
-
-
-
- 利用 APPNP 模型(分离非线性变换与信息传播,高效捕捉邻域关联)更新节点表示,公式为:
-
-
-
- 其中 $\Theta_1$ 为可训练权重矩阵, $\hat{A}$ 为对称归一化邻接矩阵, $\alpha$ 为超参数(控制初始特征与传播特征的权重)。经过 $L$ 层更新后得到 $H_t^L$ 。
-
-
- 步骤 3:表示能力增强
-
-
- 将 $H_t^L$ 输入 MLP(多层感知机),进一步优化节点表示:
-
-
-
- 其中 $\Theta_2$ 为 MLP 的可训练参数,最终 $\overline{H}_t$ 即为第 $t$ 步的状态表示。
-
2. 动作(Action):保证子图连通的节点选择
-
- 动作空间定义:为确保子图连通,第 $t$ 步的动作空间严格限定为当前子图的边界节点 $\partial S_{t-1}$ (仅从边界选节点,避免子图断裂)。
-
- 动作概率计算:通过 softmax 函数计算选择每个边界节点的概率,公式为:
$ a_t(v) = \frac{\exp(\theta_3^T \overline{H}_t(v))}{\sum_{u \in \partial S_{t-1}} \exp(\theta_3^T \overline{H}_t(u))} \quad (v \in \partial S_{t-1}) $
-
- 其中,$\theta_3$ 为可训练参数向量, $a_t(v)$ 越大表示节点 $v$ 对解释子图的贡献越可能更大。
3. 目标(Objective):多约束下的损失函数
-
- 目标是 “最小化基于子图的预测不确定性”,同时通过正则化确保子图简洁有效,总损失由 4 部分构成:
-
- ① 预测损失(核心)
$\text{Prediction Loss} = -\frac{1}{N}\sum_{n=1}^N \sum_{c=1}^C P(Y=c)\log P(f(S_n)=c)$
-
-
-
用交叉熵近似条件熵 $H(Y \mid S)$ ,确保子图 $S_n$ 的预测分布接近原图预测分布( $N$ 为实例数, $C$ 为标签数, $P(Y=c)$ 为原图预测概率, $P(f(S_n)=c)$ 为子图预测概率)
-
- ② 尺寸损失
-
$\text{Size Loss} = \|S\|_1$
-
-
-
限制解释子图 $S$ 的节点数量,避免子图过大( $\|S\|_1$ 为子图节点数的 L1 范数,即节点总数)
-
- ③ 半径惩罚
-
$\text{Radius Penalty} = \max_{u \in S} \text{Distance}(v_0, u)$
-
-
-
控制子图 “半径”(种子节点 $v_0$ 到子图内其他节点的最长最短路径),避免子图过度延伸
-
- ④ 相似性损失
-
$\text{Similarity Loss} = \|\tilde{H}_T(v_0) - z_{v_0}\|_2$
-
-
-
确保子图生成的种子节点表示 $\tilde{H}_T(v_0)$ 与原图中种子节点的原始表示 $z_{v_0}$ 接近(L2 范数衡量差异)
-
- ⑤ 总损失函数为:
-
$ \mathcal{L}(S) = \text{Prediction Loss} + \lambda_1 \cdot \text{Size Loss} + \lambda_2 \cdot \text{Radius Penalty} + \lambda_3 \cdot \text{Similarity Loss} $
-
-
- 其中 $\lambda_1, \lambda_2, \lambda_3$ 为超参数,用于平衡各损失项的权重。
-
4. 奖励(Reward)与优化:策略梯度更新
-
- 奖励定义:由于损失 $\mathcal{L}(S)$ 需在子图生成完成后计算(中间步骤无法单独衡量损失),因此仅在子图生成结束时,以 “总损失的负值” 作为奖励: $r = -\mathcal{L}(S)$ (奖励越大,子图质量越好)。
-
- 策略梯度优化:生成器参数 $\mathbb{G} = \{\Theta_1, \Theta_2, \theta_3\}$ 通过策略梯度学习,目标是最大化 “奖励的期望”,梯度公式为:
-
-
-
其中 $\pi_\theta(v_t \mid S_{t-1})$ 为第 $t$ 步选择节点 $v_t$ 的概率, $Q(S_{t-1}, v_t)$ 为 “状态 - 动作值”(衡量在状态 $S_{t-1}$ 选择动作 $v_t$ 的未来期望奖励)。
-
-
Q 值近似:通过蒙特卡洛估计近似 $Q$ 值:
-
$ Q(S_{t-1}, v_t) = \begin{cases} \frac{1}{M}\sum_{i=1}^M -\mathcal{L}(S^{(i)}) & (t < T) \\ -\mathcal{L}(S_{t-1} \cup v_t) & (t = T) \end{cases} $
-
-
-
其中 $S^{(i)}$ 是基于 $S_{t-1}$ 和 $v_t$ 采样的 $M$ 个完整子图(rollouts),确保奖励信号能传递到每一步。
-
-
3.3 组件 2:停止准则学习(Stopping Criteria Learning)—— 避免子图冗余
通过在动作空间中加入 “STOP” 动作,让模型自动判断何时停止子图扩展,具体逻辑如下:
-
STOP 动作的表示生成:利用自注意力机制聚合当前状态的节点表示,得到 “STOP” 动作的表示:
-
$ \gamma_t(v) = \frac{\exp(\theta_4^T \overline{H}_t(v))}{\sum_{u \in S_{t-1} \cup \partial S_{t-1}} \exp(\theta_4^T \overline{H}_t(u))}, \quad \overline{H}_t(\text{STOP}) = \sum_{v \in S_{t-1} \cup \partial S_{t-1}} \gamma_t(v) \overline{H}_t(v) $
-
其中 $\theta_4$ 为可训练参数, $\gamma_t(v)$ 是节点 $v$ 对 “STOP” 动作的注意力权重。
-
-
STOP 动作的概率计算:将 $\overline{H}_t(\text{STOP})$ 代入动作概率公式,与边界节点的选择概率一同计算,模型根据概率选择 “继续选节点” 或 “停止”。
-
安全机制:设置 “最大生成步数”,避免模型因学习偏差导致子图无限扩展。
3.4 组件 3:起点选择(Seed Locator)—— 确定子图生成起点
1. 任务适配的起点规则
-
- 节点分类任务:直接以待解释的节点作为种子节点(因解释目标是该节点的预测结果,其自身必然是核心)。
-
- 图分类任务:需通过 “种子定位器 $\mathbb{L}$ ” 学习最具影响力的节点,避免暴力枚举(枚举所有节点生成子图并评估,计算成本过高)。
2. 种子定位器的设计与训练
-
- 定位器结构:采用三层 MLP,输入为 “图的最终表示 $z_{g_n}$ ” 与 “节点的最终表示 $z_{v_{i,n}}$ ”(均由训练好的 GNN 模型 $f(\cdot)$ 生成),输出为节点对图标签的影响力权重 $\omega_{i,n}$ :
-
- 训练目标:让 $\omega_{i,n}$ 与 “节点作为种子时生成的子图奖励” 尽可能一致,采用 KL 散度损失:
$ \text{Loss}_{\mathbb{L}} = \text{KLDivLoss}(\omega_{i,n}, -\mathcal{L}(\mathbb{G}(v_{i,n}))) $
-
-
-
其中 $-\mathcal{L}(\mathbb{G}(v_{i,n}))$ 是节点 $v_{i,n}$ 作为种子时生成子图的奖励,通过 softmax 将 $\omega_{i,n}$ 与奖励转化为分布后计算 KL 散度。
-
- 协同训练:定位器 $\mathbb{L}$ 与生成器 $\mathbb{G}$ 交替训练 —— 固定 $\mathbb{L}$ 优化 $\mathbb{G}$ ,固定 $\mathbb{G}$ 优化 $\mathbb{L}$ ,直至收敛。
-
3.5 预训练策略(Pretraining)—— 提升模型初始化性能
1. 生成器预训练(Pretrain $\mathbb{G}$ )
-
-
核心思路:以 “种子节点的 3 跳邻域” 作为初始解释子图样本(3 跳邻域包含足够的局部信息,且符合 GNN 的消息传递范围),通过 “集合对数似然” 最大化优化生成器对 “有效扩展顺序” 的学习。
-
似然近似:由于子图的有效扩展顺序可能有 $T!$ 种( $T$ 为子图节点数),采用 set2set 方法近似,优化 “最优顺序” 和 “随机有效顺序” 的对数似然:
-
最优顺序 $\tau^*$ : $\tau^*(i) = \arg\max \mathbb{G}(\cdot \mid \{v_0, v_{\tau^*(1)}, \cdots, v_{\tau^*(i-1)}\})$ ,最大化其似然;
-
随机有效顺序 $\tau'$ :随机采样符合 “边界扩展” 规则的顺序,最大化其似然,避免模型陷入单一顺序。
-
2. 定位器预训练(Pretrain $\mathbb{L}$ )
-
- 核心思路:无需依赖生成器,直接以 “节点 3 跳邻域的奖励” 作为标签,训练 MLP(定位器)学习 “节点特征 - 奖励” 的映射关系 —— 随机采样节点,计算其 3 跳邻域的奖励,用这些样本预训练定位器参数。
4 Experiments
4.1 实验基础设置
4.1.1 公平性保障
- 参数对齐:采用与 PGExplainer [17]、GNNExplainer [34] 相同的微调参数(参考 [12] 的复现设置),避免因参数差异影响结果对比;
- 模型一致:所有解释器均基于同一训练完成的 GNN 模型开展解释任务,GNN 模型架构随任务不同略有调整(见下文 “模型设置”);
- 评估标准统一:使用相同的指标(AUC)衡量解释效果,确保定量结果可比。
4.1.2 模型设置(被解释的 GNN 模型)
根据任务类型(节点分类 / 图分类)设计 GNN 模型结构,具体如下:
|
任务类型
|
GNN 模型架构
|
关键组件
|
|
节点分类
|
3 层图卷积层(GCN)+ 1 层全连接层
|
每层图卷积层负责聚合邻域信息,全连接层输出节点类别概率
|
|
图分类
|
3 层图卷积层 + 2 层池化层(max pooling + mean pooling)+ 1 层全连接层
|
池化层对节点嵌入进行聚合生成图表示,全连接层输出图类别概率
|
4.1.3 核心评估指标:AUC(Area Under ROC Curve)
- 指标定义:将 GNN 解释任务转化为 “边级二分类任务”—— 以图中 “真实关键子图(motif)的边” 为正例,“非 motif 边” 为负例;解释器输出的 “边重要性权重” 作为预测分数,计算 ROC 曲线下面积(AUC);
- 指标意义:AUC 值越接近 1,说明解释器越能准确区分 “关键边” 与 “无关节边”,解释性能越好。
4.2 实验数据集
实验共使用 6 个数据集,其中 4 个用于节点分类,2 个用于图分类,所有数据集均以 “motif(基序)” 作为 “真实解释子图”(motif 是决定节点 / 图标签的核心结构),具体如下:
|
数据集名称
|
任务类型
|
数据构成(基图 + motif)
|
核心特点
|
样本量 / 规模
|
|
BA-shapes
|
节点分类
|
基图:1 个 Barabasi-Albert(BA)图(随机生成的无标度图);motif:80 个 “房屋结构”(5 节点构成的三角形 + 矩形组合)
|
每个 motif 随机附着在 BA 图的节点上,添加额外噪声边增加解释难度
|
BA 图含 300 个节点,共 80 个待解释节点(每个 motif 对应 1 个中心节点)
|
|
BA-Community
|
节点分类
|
基图:2 个 BA 图(分别生成不同高斯分布的节点特征);motif:每个 BA 图附着 “房屋结构” motif
|
两 BA 图间添加额外连接边,形成 “社区结构”,需区分不同社区的 motif
|
总节点数约 600,含 160 个待解释节点(每个 BA 图 80 个)
|
|
Tree-Cycles
|
节点分类
|
基图:多层二叉树;motif:80 个 “6 节点循环结构”
|
循环 motif 随机附着在树的叶子节点上,易与树的分支结构混淆
|
树含约 500 个节点,80 个待解释节点
|
|
Tree-Grid
|
节点分类
|
基图:多层二叉树;motif:80 个 “3×3 网格结构”(9 节点)
|
网格 motif 结构更复杂,与树的线性结构差异大,解释难度高于 Tree-Cycles
|
树含约 800 个节点,80 个待解释节点
|
|
BA-2motifs
|
图分类
|
基图:BA 图;motif:两类 ——“房屋结构” 或 “5 节点循环结构”(各占 50%)
|
每个图含 1 个 BA 图 + 1 个 motif,标签由 motif 类型决定(二分类)
|
共 1000 个图样本(500 个含房屋 motif,500 个含循环 motif)
|
|
Mutagenicity
|
图分类
|
真实分子图数据集;motif:“NO₂”(致突变)或 “NH₂”(非致突变)
|
标签为 “致突变” 或 “非致突变”,由分子中的关键官能团(motif)决定,是真实场景下的硬任务
|
共 4337 个分子图样本,节点数为 10-30(分子原子数)
|
4.3 对比方法(选取两类代表性 GNN 解释器)
实验选取当前最先进(SOTA)的两类 GNN 解释器作为 baseline,覆盖 “连续松弛法” 与 “学习型解释器”,具体如下:
|
对比方法
|
方法类型
|
核心原理
|
与 RG-Explainer 的关键差异
|
|
GNNExplainer[34]
|
连续松弛法
|
优化 “边的软掩码矩阵”,通过阈值筛选重要边;目标是最大化 “子图预测分布与原图预测的互信息”,加入尺寸和熵约束
|
1. 无法保证子图连通性;2. 独立计算边重要性,忽略节点 - 边交互
|
|
PGExplainer[17]
|
学习型解释器(非 RL)
|
利用 GNN 生成的节点 / 图表示,训练神经网络学习 “边重要性权重”,同样基于连续松弛思路
|
1. 虽为学习型,但仍依赖连续掩码,无法保证子图连通;2. 泛化能力弱,在归纳式设置下性能下降明显
|
4.4 实验内容与结果分析
4.4.1 定性评估:可视化解释子图的有效性
- 实验逻辑:通过可视化对比三类解释器生成的子图,直观判断 “是否包含完整 motif”“是否冗余无关节点 / 边”;
- 可视化规则:
- 用 “黑色粗边” 标记解释器判定的 “重要边”(边数等于真实 motif 的边数);
- 节点颜色表示类别,突出待解释节点(节点分类)或整个图(图分类);
- 关键结论(基于表 1 和文中描述):
|
数据集场景
|
对比结果
|
|
BA-shapes、BA-Community(简单场景)
|
三类解释器均能找到 “房屋 motif”,但 GNNExplainer 和 PGExplainer 包含大量噪声边(如 BA 图的随机连接边),RG-Explainer 子图更简洁,仅保留 motif 边
|
|
Tree-Cycles、Tree-Grid(复杂场景)
|
GNNExplainer 和 PGExplainer 易误将 “树的分支边” 纳入子图,导致 motif 不完整;RG-Explainer 能准确捕捉 “循环” 或 “网格” motif,边的完整性更高
|
|
BA-2motifs(图分类)
|
真实 motif 位于图右下角,GNNExplainer 和 PGExplainer 同时包含 “正确 motif 边” 和 “错误边”,RG-Explainer 仅保留正确的房屋 motif 边
|
|
Mutagenicity(真实分子图)
|
PGExplainer 虽能找到致突变 motif,但存在冗余原子;RG-Explainer 精准定位 “NO₂” 官能团(致突变关键),无冗余节点,与真实 motif 完全匹配
|
4.4.2 定量评估:AUC 分数对比(表 2)
- 实验设置:每个数据集运行 10 次实验,计算 AUC 均值 ± 标准差,避免随机误差;
- 核心结果(表 2 关键数据提取):
|
数据集
|
GNNExplainer(AUC)
|
PGExplainer(AUC)
|
RG-Explainer(AUC)
|
RG-Explainer 提升幅度
|
|
BA-shapes
|
0.742 ± 0.006
|
0.999 ± 0.000
|
0.985 ± 0.013
|
与 PGExplainer 接近(-1.5%),显著优于 GNNExplainer(+24.3%)
|
|
BA-Community
|
0.708 ± 0.004
|
0.825 ± 0.040
|
0.919 ± 0.017
|
较 PGExplainer 提升 11.4%,较 GNNExplainer 提升 30.1%
|
|
Tree-Cycles
|
0.540 ± 0.017
|
0.760 ± 0.014
|
0.787 ± 0.099
|
较 PGExplainer 提升 3.6%,较 GNNExplainer 提升 45.7%
|
|
Tree-Grid
|
0.714 ± 0.002
|
0.679 ± 0.008
|
0.927 ± 0.031
|
较 PGExplainer 提升 29.8%,较 GNNExplainer 提升 30.0%
|
|
BA-2motifs
|
0.499 ± 0.004
|
0.133 ± 0.046
|
0.657 ± 0.107
|
较 PGExplainer 提升 31.7%(注:PGExplainer 在该数据集表现异常差),较 GNNExplainer 提升 31.7%
|
|
Mutagenicity
|
0.606 ± 0.003
|
0.847 ± 0.081
|
0.873 ± 0.028
|
较 PGExplainer 提升 2.8%,较 GNNExplainer 提升 44.1%
|
- 定量结论:
- RG-Explainer 在 6 个数据集中的 5 个表现最优,仅在 BA-shapes 上略逊于 PGExplainer(但仍显著优于 GNNExplainer);
- 在复杂数据集(如 Tree-Grid、BA-2motifs)上,RG-Explainer 的提升幅度最大(29.8%-31.7%),说明其在难任务上的优势更明显;
- 真实数据集 Mutagenicity 上,RG-Explainer 仍能保持最优,证明其在实际场景中的有效性。
4.4.3 归纳式设置评估:泛化能力验证(图 2)
- 实验背景:传统解释器(如 PGExplainer)多适用于 “转导式设置”(训练与测试在同一图上),而 “归纳式设置”(训练用部分图,测试用未见过的新图)更贴近实际应用,但对解释器的泛化能力要求更高;
- 实验设计:
- 训练集比例:从 10% 到 90% 逐步增加(剩余为测试集);
- 对比对象:RG-Explainer vs PGExplainer(均为学习型解释器,具备泛化潜力);
- 评估指标:不同训练集比例下的测试集 AUC 分数;
- 核心结果(基于图 2 及文中描述):
|
数据集
|
关键观察
|
|
BA-Community
|
无论训练集比例如何,RG-Explainer 的 AUC 均高于 PGExplainer;训练集比例越低(如 10%),RG-Explainer 的优势越明显
|
|
Tree-Grid
|
当训练集比例≤50% 时,PGExplainer 的 AUC 显著低于 RG-Explainer(差距约 10%-15%);训练集比例增至 90% 时,差距缩小但 RG-Explainer 仍领先
|
|
Mutagenicity
|
RG-Explainer 在所有训练集比例下均优于 PGExplainer,且 AUC 波动更小(稳定性更强)
|
- 泛化性结论:
- RG-Explainer 的泛化能力显著优于 PGExplainer,尤其在 “训练样本少” 的场景下优势突出;
- 原因:RG-Explainer 通过 RL 学习 “子图扩展策略”(而非直接学习边权重),策略具备更强的迁移性,可适配未见过的新图结构。
4.5 实验核心结论汇总
- 解释性能:RG-Explainer 在合成与真实数据集上均优于 GNNExplainer 和 PGExplainer,尤其在复杂任务和真实场景中表现更优;
- 子图质量:RG-Explainer 生成的解释子图 “连通、简洁、完整”—— 既符合 GNN 的消息传递逻辑(连通),又无冗余节点 / 边(简洁),且能完整捕捉真实 motif(完整);
- 泛化能力:RG-Explainer 在归纳式设置下表现优异,可对未见过的新图生成有效解释,突破传统解释器的泛化局限;
- 种子定位器有效性:在图分类任务中,RG-Explainer 的种子定位器能筛选出 66%(BA-2motifs)-84%(Mutagenicity)的 “真实 motif 内节点” 作为种子,为后续子图生成奠定基础。

浙公网安备 33010602011771号