RG-Explainer | Reinforcement Learning Enhanced Explainer for Graph Neural Networks | NeurIPS 2021

论文信息

论文标题:Reinforcement Learning Enhanced Explainer for Graph Neural Networks
论文作者:
论文来源:NeurIPS 2021
论文地址:link
论文代码:link

Abstract

一、GNN 的核心价值与解释难点

1. GNN 的技术定位

  • 身份:近年来兴起的图数据机器学习革命性技术,可处理节点分类、图分类、链接预测等经典图任务,同时适用于直觉物理、数学推理、IQ 测试等推理任务。
  • 核心机制:通过消息传递方案(message passing scheme) 将图结构与节点表示融合,即每一层节点会聚合邻居节点的信息来更新自身嵌入,实现对图拓扑和节点特征的联合利用。

2. GNN 解释的核心目标与本质

  • 解释目标:针对训练好的 GNN 模型,设计GNN 解释器(GNN explainer),找到对实例(如单个节点、整个图)预测结果最具影响力的子图,以此解释模型预测逻辑。
  • 问题本质:GNN 解释本质是图上的组合优化问题—— 需从海量可能的子图中,筛选出满足 “影响力最大化” 且通常受 “尺寸约束” 的最优子图。

二、现有 GNN 解释方法的缺陷

  现有方法主要分为两类,但均存在关键问题,导致解释性能不佳:

方法类型

代表思路

核心缺陷

连续松弛法

(如 GNNExplainer、PGExplainer)通过优化边的软掩码矩阵,再按阈值筛选重要节点 / 边

1. 无法保证输出子图的连通性,难以体现 GNN 的消息传递路径;2. 独立计算每条边的重要性,忽略节点与边之间的交互关系

基于搜索的启发式方法

(如 SubgraphX、Causal Screening)设计搜索准则,通过搜索算法寻找最优子图

1. 依赖人工设计的启发式准则,准则仅适用于特定场景,通用性差;2. 受图的组合特性限制,难以设计普适性强的搜索策略

三、RG-Explainer 的核心设计

1. 整体定位

  • 技术属性:强化学习增强的 GNN 解释器,通过 RL 机制解决组合优化问题,同时适配 GNN 的消息传递特性。
  • 核心优势:生成连通的解释子图、无需人工设计启发式准则、泛化能力强。

2. 三大核心组件

组件名称

功能描述

解决的关键问题

起点选择(Starting Point Selection)

1. 节点分类任务:直接以待解释节点为起点;2. 图分类任务:通过 “种子定位器(seed locator)” 学习节点对图标签的影响力,筛选最具影响力的节点作为起点

避免人工指定起点的主观性,确保起点与预测结果强相关

迭代图生成(Iterative Graph Generation)

从当前生成子图的边界(boundary) 中依次选择节点加入,逐步构建子图

1. 保证解释子图的连通性,与 GNN 的消息传递逻辑一致;2. 避免无关节点 / 边的引入,提升解释子图的简洁性

停止准则学习(Stopping Criteria Learning)

通过学习的准则判断当前子图是否满足解释需求,避免生成过大的子图

替代人工设定停止条件,确保子图 “紧凑且有效”,平衡解释完整性与简洁性

四、RG-Explainer 的实验表现与泛化能力

1. 性能验证

  • 实验数据:覆盖合成数据集(如 BA-shapes、TreeCycles)与真实数据集(如 Mutagenicity 分子图数据集),全面验证不同场景下的解释效果。

  • 核心结论:在解释性能上优于当前最先进(state-of-the-art)的 GNN 解释器,体现在能更精准捕捉对预测关键的子图(如分子图中的活性 motif)。

2. 泛化能力

  • 关键特性:可应用于归纳式设置(inductive setting),即能对训练过程中未见过的新图 / 节点生成有效解释。

  • 价值:突破传统解释器 “仅适用于训练数据分布内样本” 的局限,提升在实际动态数据场景中的实用性。

1 Introduction

一、GNN 的技术定位与核心优势

  1. 技术定义:图神经网络(Graph Neural Networks, GNNs)是针对图结构数据的机器学习模型,通过消息传递机制(message passing scheme) 将图的拓扑结构与节点特征融合,生成节点表示。

  1. 任务覆盖范围

    • 经典图机器学习任务:节点分类 [10,28]、链接预测 [38]、图分类 [33],且在这些任务中实现了当前最优(state-of-the-art)性能。

    • 推理类任务:直觉物理 [4]、数学推理 [24]、IQ 测试 [3] 等复杂场景。

  1. 核心局限:与多数深度学习方法类似,GNN 缺乏对预测结果的可解释性(interpretability),需通过事后分析(post-hoc analysis)解释预测逻辑。

二、GNN 解释器的目标与问题形式化

  1. 解释器核心目标:针对训练完成的 GNN 模型,设计 GNN 解释器(GNN explainer),识别对实例(如单个节点、整个图)预测标签最具影响力的子图结构,以此揭示模型预测的关键依据。

  1. 问题数学形式化:GNN 解释本质是带约束的组合优化问题,目标函数为:在子图尺寸约束下,最大化 “预测结果与相关子图分布之间的互信息(mutual information)”。

三、现有 GNN 解释方法的缺陷分析

  现有方法主要分为两类,但均存在关键问题,导致解释性能不佳,具体如下表所示:

  1. 连续松弛法

    • 代表方法:GNNExplainer[34]、PGExplainer[17]

    • 核心思路:对边的重要性构建软掩码矩阵,通过优化掩码矩阵,再按阈值筛选重要节点 / 边

    • 关键缺陷:1. 连通性缺失:无法保证输出子图的节点与边连通,难以直观体现 GNN 的消息传递路径;2. 忽略交互:独立计算每条边的重要性,未考虑选中节点与边之间的相互作用

  2. 基于搜索的启发式方法

    • 代表方法:SubgraphX[37]、Causal Screening[31]

    • 核心思路:设计人工搜索准则,通过搜索算法(如蒙特卡洛树搜索、贪心搜索)寻找最优解释子图

    • 关键缺陷:1. 准则局限性:依赖人工设计的启发式搜索准则,准则仅适用于特定场景,通用性差;2. 组合复杂度挑战:受图的组合特性限制,难以设计适用于各类图结构的普适性搜索策略
 

四、RG-Explainer 的提出与核心设计思路

  1. 提出动机:针对现有方法的连通性缺失、启发式依赖等问题,提出强化学习增强的 GNN 解释器(RG-Explainer),利用 RL 解决图上组合优化问题,适配 GNN 消息传递特性。

  1. 核心框架灵感:借鉴经典组合优化求解器的思路,设计三大关键步骤,协同生成有效解释子图:

    • 步骤 1:起点选择(Starting Point Selection):确定解释子图的初始种子节点,确保起点与预测结果强相关。

    • 步骤 2:迭代图生成(Iterative Graph Generation):从当前子图边界依次选择节点,保证子图连通性,符合消息传递逻辑。

    • 步骤 3:停止准则学习(Stopping Criteria Learning):自动判断子图生成是否终止,避免子图过大或信息冗余。

  1. 额外优势:具备更好的泛化能力,可同时应用于转导式设置(transductive setting)归纳式设置(inductive setting),突破部分解释器仅适用于训练数据的局限。

五、RG-Explainer 的实验验证方向预告
  • 实验设计:在合成数据集与真实数据集上开展大量实验,对比 RG-Explainer 与当前最优 GNN 解释器的性能。

  • 验证维度:

    • 定量评估:通过指标(如 AUC)衡量解释子图与真实关键子图(如 motif)的匹配度。

    • 定性评估:通过可视化展示解释子图的简洁性与关键信息捕捉能力。

      • 泛化性验证:在归纳式设置下测试模型对未见过实例的解释效果。

2 Preliminary

问题定义(GNN 解释器的目标形式化)

  明确 GNN 解释器的数学目标,为后续 RG-Explainer 的设计提供优化方向,具体如下:

  1、输入与输出

    • 输入:训练完成的 GNN 模型 $ f(\cdot)$ 、待解释的图 $ G=(V, E)$ ;
    • 输出:解释子图 $ S=(V_S, E_S)$ ,其中 $ V_S \subseteq V$ (子图节点集)、$ E_S \subseteq E$ (子图边集),且 $ S$ 需能反映 GNN 预测的关键依据。

  2、核心优化目标

    最大化 “原预测标签” 与 “基于解释子图的预测分布” 之间的互信息(Mutual Information, MI),公式为:

    $ \max_{S} \text{MI}(Y, S) = H(Y) - H(Y \mid S) $

    • 符号说明:
      • $ Y = f(G)$ :GNN 对原图 $ G$ 的预测标签;
      • $ H(\cdot)$ :熵函数,衡量随机变量的不确定性;
      • $ H(Y \mid S)$ :给定解释子图 $ S$ 后,预测标签 $ Y$ 的条件熵,反映 $ S$ 对 $ Y$ 的解释能力(条件熵越小,解释能力越强)。

  3、目标简化

  由于在解释阶段,原图 $ G$ 的预测标签 $ Y$ 已固定,其熵 $ H(Y)$ 为常数,因此优化目标可简化为:

    $ \min_{S} H(Y \mid S) $

  即寻找能最小化 “基于子图的预测不确定性” 的解释子图 $ S$ 。

3 Methodology

3.1 核心目标与问题定位

  1. 核心目标:针对 GNN 解释的核心优化目标 $\min_{S} H(Y \mid S)$ (最小化 “基于解释子图 $S$ 的预测标签条件熵”),设计基于强化学习(RL)的解决方案,通过三大关键组件(迭代图生成、停止准则学习、起点选择)生成连通、简洁且有效的解释子图。
  1. 问题本质: $\min_{S} H(Y \mid S)$ 是图上的组合优化问题—— 由于图中可能的子图数量呈指数级增长,无法暴力枚举,需通过 RL 的 “状态 - 动作 - 奖励” 框架动态搜索最优子图。

3.2 组件 1:迭代图生成(Graph Generator)

  迭代图生成是 RG-Explainer 的核心模块,通过 RL 的 “状态 - 动作 - 目标 - 奖励” 循环,从种子节点开始逐步扩展子图,确保子图连通性(符合 GNN 消息传递逻辑)。

  1. 状态(State):刻画当前生成进度与节点信息

    状态需融合 “种子节点、当前子图、边界节点” 的信息,为节点选择提供依据,具体步骤如下:

    • 步骤 1:特征增强
      • 设第 $t$ 步的当前子图为 $S_{t-1} = \{v_0, v_1, \cdots, v_{t-2}\}$ ( $v_0$ 为种子节点),边界节点为 $\partial S_{t-1}$ ( $S_{t-1}$ 的邻居节点中未包含在 $S_{t-1}$ 内的节点)。对 $S_{t-1} \cup \partial S_{t-1}$ 中的每个节点 $v$ ,增强其原始特征 $x_v$ :

          $ x_v' = [x_v, \mathbb{1}_{\{v \in \{v_0\}\}}, \mathbb{1}_{\{v \in S_{t-1}\}}] $

      • 其中 $\mathbb{1}$ 为指示函数( $v$ 是种子节点则第 2 项为 1, $v$ 在当前子图则第 3 项为 1),增强后得到特征矩阵 $X_t' = [x_v']_{\forall v \in S_{t-1} \cup \partial S_{t-1}}$ 。
    • 步骤 2:邻域信息聚合
      • 利用 APPNP 模型(分离非线性变换与信息传播,高效捕捉邻域关联)更新节点表示,公式为:
          $ H_t^{(0)} = \Theta_1 X_t', \quad H_t^{(l+1)} = (1-\alpha)\hat{A}H_t^{(l)} + \alpha H_t^{(0)} $
      • 其中 $\Theta_1$ 为可训练权重矩阵, $\hat{A}$ 为对称归一化邻接矩阵, $\alpha$ 为超参数(控制初始特征与传播特征的权重)。经过 $L$ 层更新后得到 $H_t^L$ 。
    • 步骤 3:表示能力增强
      • 将 $H_t^L$ 输入 MLP(多层感知机),进一步优化节点表示:
          $ \overline{H}_t(v) = \text{MLP}(H_t^L(v); \Theta_2) \quad (v \in S_{t-1} \cup \partial S_{t-1}) $
      • 其中 $\Theta_2$ 为 MLP 的可训练参数,最终 $\overline{H}_t$ 即为第 $t$ 步的状态表示。

  2. 动作(Action):保证子图连通的节点选择

    • 动作空间定义:为确保子图连通,第 $t$ 步的动作空间严格限定为当前子图的边界节点 $\partial S_{t-1}$ (仅从边界选节点,避免子图断裂)。
    • 动作概率计算:通过 softmax 函数计算选择每个边界节点的概率,公式为:

        $ a_t(v) = \frac{\exp(\theta_3^T \overline{H}_t(v))}{\sum_{u \in \partial S_{t-1}} \exp(\theta_3^T \overline{H}_t(u))} \quad (v \in \partial S_{t-1}) $

    • 其中,$\theta_3$ 为可训练参数向量, $a_t(v)$ 越大表示节点 $v$ 对解释子图的贡献越可能更大。

  3. 目标(Objective):多约束下的损失函数

    • 目标是 “最小化基于子图的预测不确定性”,同时通过正则化确保子图简洁有效,总损失由 4 部分构成:
    • ① 预测损失(核心)

      $\text{Prediction Loss} = -\frac{1}{N}\sum_{n=1}^N \sum_{c=1}^C P(Y=c)\log P(f(S_n)=c)$

      • 用交叉熵近似条件熵 $H(Y \mid S)$ ,确保子图 $S_n$ 的预测分布接近原图预测分布( $N$ 为实例数, $C$ 为标签数, $P(Y=c)$ 为原图预测概率, $P(f(S_n)=c)$ 为子图预测概率)

    • ② 尺寸损失

      $\text{Size Loss} = \|S\|_1$

      • 限制解释子图 $S$ 的节点数量,避免子图过大( $\|S\|_1$ 为子图节点数的 L1 范数,即节点总数)

    • ③ 半径惩罚

      $\text{Radius Penalty} = \max_{u \in S} \text{Distance}(v_0, u)$

      • 控制子图 “半径”(种子节点 $v_0$ 到子图内其他节点的最长最短路径),避免子图过度延伸

    • ④ 相似性损失

      $\text{Similarity Loss} = \|\tilde{H}_T(v_0) - z_{v_0}\|_2$

      • 确保子图生成的种子节点表示 $\tilde{H}_T(v_0)$ 与原图中种子节点的原始表示 $z_{v_0}$ 接近(L2 范数衡量差异)

    • ⑤ 总损失函数为:

      $ \mathcal{L}(S) = \text{Prediction Loss} + \lambda_1 \cdot \text{Size Loss} + \lambda_2 \cdot \text{Radius Penalty} + \lambda_3 \cdot \text{Similarity Loss} $

      • 其中 $\lambda_1, \lambda_2, \lambda_3$ 为超参数,用于平衡各损失项的权重。

  4. 奖励(Reward)与优化:策略梯度更新

    • 奖励定义:由于损失 $\mathcal{L}(S)$ 需在子图生成完成后计算(中间步骤无法单独衡量损失),因此仅在子图生成结束时,以 “总损失的负值” 作为奖励: $r = -\mathcal{L}(S)$ (奖励越大,子图质量越好)。
    • 策略梯度优化:生成器参数 $\mathbb{G} = \{\Theta_1, \Theta_2, \theta_3\}$ 通过策略梯度学习,目标是最大化 “奖励的期望”,梯度公式为:
      $ \nabla \mathbb{E}_{S \mid v_0 \sim \mathbb{G}}[-\mathcal{L}(S)] = \mathbb{E}_{v_1, \cdots, v_T \mid v_0 \sim \mathbb{G}} \left[ \sum_{t=1}^T \nabla \log \pi_\theta(v_t \mid S_{t-1}) \cdot Q(S_{t-1}, v_t) \right] $
      • 其中 $\pi_\theta(v_t \mid S_{t-1})$ 为第 $t$ 步选择节点 $v_t$ 的概率, $Q(S_{t-1}, v_t)$ 为 “状态 - 动作值”(衡量在状态 $S_{t-1}$ 选择动作 $v_t$ 的未来期望奖励)。

    • Q 值近似:通过蒙特卡洛估计近似 $Q$ 值:

      $ Q(S_{t-1}, v_t) = \begin{cases} \frac{1}{M}\sum_{i=1}^M -\mathcal{L}(S^{(i)}) & (t < T) \\ -\mathcal{L}(S_{t-1} \cup v_t) & (t = T) \end{cases} $

      • 其中 $S^{(i)}$ 是基于 $S_{t-1}$ 和 $v_t$ 采样的 $M$ 个完整子图(rollouts),确保奖励信号能传递到每一步。

3.3 组件 2:停止准则学习(Stopping Criteria Learning)—— 避免子图冗余

  通过在动作空间中加入 “STOP” 动作,让模型自动判断何时停止子图扩展,具体逻辑如下:

  1. STOP 动作的表示生成:利用自注意力机制聚合当前状态的节点表示,得到 “STOP” 动作的表示:

    • $ \gamma_t(v) = \frac{\exp(\theta_4^T \overline{H}_t(v))}{\sum_{u \in S_{t-1} \cup \partial S_{t-1}} \exp(\theta_4^T \overline{H}_t(u))}, \quad \overline{H}_t(\text{STOP}) = \sum_{v \in S_{t-1} \cup \partial S_{t-1}} \gamma_t(v) \overline{H}_t(v) $

    • 其中 $\theta_4$ 为可训练参数, $\gamma_t(v)$ 是节点 $v$ 对 “STOP” 动作的注意力权重。

  2. STOP 动作的概率计算:将 $\overline{H}_t(\text{STOP})$ 代入动作概率公式,与边界节点的选择概率一同计算,模型根据概率选择 “继续选节点” 或 “停止”。

  3. 安全机制:设置 “最大生成步数”,避免模型因学习偏差导致子图无限扩展。

3.4 组件 3:起点选择(Seed Locator)—— 确定子图生成起点

  起点(种子节点)需是对预测结果最具影响力的节点,不同任务的起点选择逻辑不同:

  1. 任务适配的起点规则

    • 节点分类任务:直接以待解释的节点作为种子节点(因解释目标是该节点的预测结果,其自身必然是核心)。
    • 图分类任务:需通过 “种子定位器 $\mathbb{L}$ ” 学习最具影响力的节点,避免暴力枚举(枚举所有节点生成子图并评估,计算成本过高)。

  2. 种子定位器的设计与训练

    • 定位器结构:采用三层 MLP,输入为 “图的最终表示 $z_{g_n}$ ” 与 “节点的最终表示 $z_{v_{i,n}}$ ”(均由训练好的 GNN 模型 $f(\cdot)$ 生成),输出为节点对图标签的影响力权重 $\omega_{i,n}$ :
      $ \omega_{i,n} = \text{MLP}([z_{g_n}, z_{v_{i,n}}]) $
    • 训练目标:让 $\omega_{i,n}$ 与 “节点作为种子时生成的子图奖励” 尽可能一致,采用 KL 散度损失:

        $ \text{Loss}_{\mathbb{L}} = \text{KLDivLoss}(\omega_{i,n}, -\mathcal{L}(\mathbb{G}(v_{i,n}))) $

      • 其中 $-\mathcal{L}(\mathbb{G}(v_{i,n}))$ 是节点 $v_{i,n}$ 作为种子时生成子图的奖励,通过 softmax 将 $\omega_{i,n}$ 与奖励转化为分布后计算 KL 散度。

    • 协同训练:定位器 $\mathbb{L}$ 与生成器 $\mathbb{G}$ 交替训练 —— 固定 $\mathbb{L}$ 优化 $\mathbb{G}$ ,固定 $\mathbb{G}$ 优化 $\mathbb{L}$ ,直至收敛。

3.5 预训练策略(Pretraining)—— 提升模型初始化性能

  为避免模型训练初期因参数随机导致的收敛困难,对生成器和定位器分别设计预训练策略:

  1. 生成器预训练(Pretrain $\mathbb{G}$ )

    • 核心思路:以 “种子节点的 3 跳邻域” 作为初始解释子图样本(3 跳邻域包含足够的局部信息,且符合 GNN 的消息传递范围),通过 “集合对数似然” 最大化优化生成器对 “有效扩展顺序” 的学习。

    • 似然近似:由于子图的有效扩展顺序可能有 $T!$ 种( $T$ 为子图节点数),采用 set2set 方法近似,优化 “最优顺序” 和 “随机有效顺序” 的对数似然:

    • 最优顺序 $\tau^*$ : $\tau^*(i) = \arg\max \mathbb{G}(\cdot \mid \{v_0, v_{\tau^*(1)}, \cdots, v_{\tau^*(i-1)}\})$ ,最大化其似然;

    • 随机有效顺序 $\tau'$ :随机采样符合 “边界扩展” 规则的顺序,最大化其似然,避免模型陷入单一顺序。

  2. 定位器预训练(Pretrain $\mathbb{L}$ )

    • 核心思路:无需依赖生成器,直接以 “节点 3 跳邻域的奖励” 作为标签,训练 MLP(定位器)学习 “节点特征 - 奖励” 的映射关系 —— 随机采样节点,计算其 3 跳邻域的奖励,用这些样本预训练定位器参数。

4 Experiments

4.1 实验基础设置

  为客观验证 RG-Explainer 的性能,实验严格遵循现有 GNN 解释器的基准设置,核心参数与对比方法保持一致:

4.1.1 公平性保障

  • 参数对齐:采用与 PGExplainer [17]、GNNExplainer [34] 相同的微调参数(参考 [12] 的复现设置),避免因参数差异影响结果对比;
  • 模型一致:所有解释器均基于同一训练完成的 GNN 模型开展解释任务,GNN 模型架构随任务不同略有调整(见下文 “模型设置”);
  • 评估标准统一:使用相同的指标(AUC)衡量解释效果,确保定量结果可比。

4.1.2 模型设置(被解释的 GNN 模型)

  根据任务类型(节点分类 / 图分类)设计 GNN 模型结构,具体如下:

任务类型
GNN 模型架构
关键组件
节点分类
3 层图卷积层(GCN)+ 1 层全连接层
每层图卷积层负责聚合邻域信息,全连接层输出节点类别概率
图分类
3 层图卷积层 + 2 层池化层(max pooling + mean pooling)+ 1 层全连接层
池化层对节点嵌入进行聚合生成图表示,全连接层输出图类别概率

4.1.3 核心评估指标:AUC(Area Under ROC Curve)

  • 指标定义:将 GNN 解释任务转化为 “边级二分类任务”—— 以图中 “真实关键子图(motif)的边” 为正例,“非 motif 边” 为负例;解释器输出的 “边重要性权重” 作为预测分数,计算 ROC 曲线下面积(AUC);
  • 指标意义:AUC 值越接近 1,说明解释器越能准确区分 “关键边” 与 “无关节边”,解释性能越好。

4.2 实验数据集

  实验共使用 6 个数据集,其中 4 个用于节点分类,2 个用于图分类,所有数据集均以 “motif(基序)” 作为 “真实解释子图”(motif 是决定节点 / 图标签的核心结构),具体如下:

数据集名称
任务类型
数据构成(基图 + motif)
核心特点
样本量 / 规模
BA-shapes
节点分类
基图:1 个 Barabasi-Albert(BA)图(随机生成的无标度图);motif:80 个 “房屋结构”(5 节点构成的三角形 + 矩形组合)
每个 motif 随机附着在 BA 图的节点上,添加额外噪声边增加解释难度
BA 图含 300 个节点,共 80 个待解释节点(每个 motif 对应 1 个中心节点)
BA-Community
节点分类
基图:2 个 BA 图(分别生成不同高斯分布的节点特征);motif:每个 BA 图附着 “房屋结构” motif
两 BA 图间添加额外连接边,形成 “社区结构”,需区分不同社区的 motif
总节点数约 600,含 160 个待解释节点(每个 BA 图 80 个)
Tree-Cycles
节点分类
基图:多层二叉树;motif:80 个 “6 节点循环结构”
循环 motif 随机附着在树的叶子节点上,易与树的分支结构混淆
树含约 500 个节点,80 个待解释节点
Tree-Grid
节点分类
基图:多层二叉树;motif:80 个 “3×3 网格结构”(9 节点)
网格 motif 结构更复杂,与树的线性结构差异大,解释难度高于 Tree-Cycles
树含约 800 个节点,80 个待解释节点
BA-2motifs
图分类
基图:BA 图;motif:两类 ——“房屋结构” 或 “5 节点循环结构”(各占 50%)
每个图含 1 个 BA 图 + 1 个 motif,标签由 motif 类型决定(二分类)
共 1000 个图样本(500 个含房屋 motif,500 个含循环 motif)
Mutagenicity
图分类
真实分子图数据集;motif:“NO₂”(致突变)或 “NH₂”(非致突变)
标签为 “致突变” 或 “非致突变”,由分子中的关键官能团(motif)决定,是真实场景下的硬任务
共 4337 个分子图样本,节点数为 10-30(分子原子数)

4.3 对比方法(选取两类代表性 GNN 解释器)

  实验选取当前最先进(SOTA)的两类 GNN 解释器作为 baseline,覆盖 “连续松弛法” 与 “学习型解释器”,具体如下:

对比方法
方法类型
核心原理
与 RG-Explainer 的关键差异
GNNExplainer[34]
连续松弛法
优化 “边的软掩码矩阵”,通过阈值筛选重要边;目标是最大化 “子图预测分布与原图预测的互信息”,加入尺寸和熵约束
1. 无法保证子图连通性;2. 独立计算边重要性,忽略节点 - 边交互
PGExplainer[17]
学习型解释器(非 RL)
利用 GNN 生成的节点 / 图表示,训练神经网络学习 “边重要性权重”,同样基于连续松弛思路
1. 虽为学习型,但仍依赖连续掩码,无法保证子图连通;2. 泛化能力弱,在归纳式设置下性能下降明显

4.4 实验内容与结果分析

  实验分为三大模块:定性评估(可视化解释子图)、定量评估(AUC 对比)、归纳式设置评估(泛化能力),全面验证 RG-Explainer 的优势。

4.4.1 定性评估:可视化解释子图的有效性

  • 实验逻辑:通过可视化对比三类解释器生成的子图,直观判断 “是否包含完整 motif”“是否冗余无关节点 / 边”;
  • 可视化规则
    • 用 “黑色粗边” 标记解释器判定的 “重要边”(边数等于真实 motif 的边数);
    • 节点颜色表示类别,突出待解释节点(节点分类)或整个图(图分类);
  • 关键结论(基于表 1 和文中描述):
数据集场景
对比结果
BA-shapes、BA-Community(简单场景)
三类解释器均能找到 “房屋 motif”,但 GNNExplainer 和 PGExplainer 包含大量噪声边(如 BA 图的随机连接边),RG-Explainer 子图更简洁,仅保留 motif 边
Tree-Cycles、Tree-Grid(复杂场景)
GNNExplainer 和 PGExplainer 易误将 “树的分支边” 纳入子图,导致 motif 不完整;RG-Explainer 能准确捕捉 “循环” 或 “网格” motif,边的完整性更高
BA-2motifs(图分类)
真实 motif 位于图右下角,GNNExplainer 和 PGExplainer 同时包含 “正确 motif 边” 和 “错误边”,RG-Explainer 仅保留正确的房屋 motif 边
Mutagenicity(真实分子图)
PGExplainer 虽能找到致突变 motif,但存在冗余原子;RG-Explainer 精准定位 “NO₂” 官能团(致突变关键),无冗余节点,与真实 motif 完全匹配

4.4.2 定量评估:AUC 分数对比(表 2)

  • 实验设置:每个数据集运行 10 次实验,计算 AUC 均值 ± 标准差,避免随机误差;
  • 核心结果(表 2 关键数据提取):
数据集
GNNExplainer(AUC)
PGExplainer(AUC)
RG-Explainer(AUC)
RG-Explainer 提升幅度
BA-shapes
0.742 ± 0.006
0.999 ± 0.000
0.985 ± 0.013
与 PGExplainer 接近(-1.5%),显著优于 GNNExplainer(+24.3%)
BA-Community
0.708 ± 0.004
0.825 ± 0.040
0.919 ± 0.017
较 PGExplainer 提升 11.4%,较 GNNExplainer 提升 30.1%
Tree-Cycles
0.540 ± 0.017
0.760 ± 0.014
0.787 ± 0.099
较 PGExplainer 提升 3.6%,较 GNNExplainer 提升 45.7%
Tree-Grid
0.714 ± 0.002
0.679 ± 0.008
0.927 ± 0.031
较 PGExplainer 提升 29.8%,较 GNNExplainer 提升 30.0%
BA-2motifs
0.499 ± 0.004
0.133 ± 0.046
0.657 ± 0.107
较 PGExplainer 提升 31.7%(注:PGExplainer 在该数据集表现异常差),较 GNNExplainer 提升 31.7%
Mutagenicity
0.606 ± 0.003
0.847 ± 0.081
0.873 ± 0.028
较 PGExplainer 提升 2.8%,较 GNNExplainer 提升 44.1%
  • 定量结论
    1. RG-Explainer 在 6 个数据集中的 5 个表现最优,仅在 BA-shapes 上略逊于 PGExplainer(但仍显著优于 GNNExplainer);
    1. 在复杂数据集(如 Tree-Grid、BA-2motifs)上,RG-Explainer 的提升幅度最大(29.8%-31.7%),说明其在难任务上的优势更明显;
    1. 真实数据集 Mutagenicity 上,RG-Explainer 仍能保持最优,证明其在实际场景中的有效性。

4.4.3 归纳式设置评估:泛化能力验证(图 2)

  • 实验背景:传统解释器(如 PGExplainer)多适用于 “转导式设置”(训练与测试在同一图上),而 “归纳式设置”(训练用部分图,测试用未见过的新图)更贴近实际应用,但对解释器的泛化能力要求更高;
  • 实验设计
    • 训练集比例:从 10% 到 90% 逐步增加(剩余为测试集);
    • 对比对象:RG-Explainer vs PGExplainer(均为学习型解释器,具备泛化潜力);
    • 评估指标:不同训练集比例下的测试集 AUC 分数;
  • 核心结果(基于图 2 及文中描述):
数据集
关键观察
BA-Community
无论训练集比例如何,RG-Explainer 的 AUC 均高于 PGExplainer;训练集比例越低(如 10%),RG-Explainer 的优势越明显
Tree-Grid
当训练集比例≤50% 时,PGExplainer 的 AUC 显著低于 RG-Explainer(差距约 10%-15%);训练集比例增至 90% 时,差距缩小但 RG-Explainer 仍领先
Mutagenicity
RG-Explainer 在所有训练集比例下均优于 PGExplainer,且 AUC 波动更小(稳定性更强)
  • 泛化性结论
    1. RG-Explainer 的泛化能力显著优于 PGExplainer,尤其在 “训练样本少” 的场景下优势突出;
    1. 原因:RG-Explainer 通过 RL 学习 “子图扩展策略”(而非直接学习边权重),策略具备更强的迁移性,可适配未见过的新图结构。

4.5 实验核心结论汇总

  1. 解释性能:RG-Explainer 在合成与真实数据集上均优于 GNNExplainer 和 PGExplainer,尤其在复杂任务和真实场景中表现更优;
  1. 子图质量:RG-Explainer 生成的解释子图 “连通、简洁、完整”—— 既符合 GNN 的消息传递逻辑(连通),又无冗余节点 / 边(简洁),且能完整捕捉真实 motif(完整);
  1. 泛化能力:RG-Explainer 在归纳式设置下表现优异,可对未见过的新图生成有效解释,突破传统解释器的泛化局限;
  1. 种子定位器有效性:在图分类任务中,RG-Explainer 的种子定位器能筛选出 66%(BA-2motifs)-84%(Mutagenicity)的 “真实 motif 内节点” 作为种子,为后续子图生成奠定基础。
 

 

 

 

 

 

 

posted @ 2025-09-16 09:34  Blairs  阅读(26)  评论(0)    收藏  举报
Live2D