GNN论文周报|来自清华大学、慕尼黑大学、南京大学等机构前沿论文研究

图神经网络(GNN)是一类专门针对图结构数据的神经网络模型,在社交网络分析、知识图谱等领域中取得了不错的效果。近来,相关研究人员在GNN的可解释性、架构搜索、对比学习等方面做了很多探究。
本周精选了10篇GNN领域的优秀论文,来自清华大学、慕尼黑大学、南京大学等机构。
为了方便大家阅读,只列出了论文标题、作者、ChatPaper综述等信息,如果感兴趣可扫码查看原文,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。

1. Graph Contrastive Learning with Generative Adversarial Network
https://www.aminer.cn/pub/64af9a0b3fda6d7f065a706c/
ChatPaper综述:本文提出了一种用于图神经网络 (GNN) 的生成对抗性图对比学习 (GACN) 方法,以解决实际应用中普遍存在的标签稀缺问题。GACN 通过生成对抗网络 (GAN) 学习视图分布,自动捕捉图的特征进行增强,并联合训练 GAN 模型和 GCL 模型。具体来说,GACN 包括一个视图生成器和一个视图判别器,在自适应式增强中生成增强视图。然后,GACN 利用这些视图训练一个具有两种精心设计的自监督学习损失的 GNN 编码器,包括图对比损失和贝叶斯个性化排名损失。此外,我们设计了一个优化框架来联合训练所有 GACN 模块。在七个真实数据集上的广泛实验证明,GACN 能够为 GCL 生成高质量的增强视图,并且优于十二个最先进的基线方法。值得注意的是,我们提出的 GACN 惊人地发现,数据增强生成的视图最终符合在线网络中著名的优先连接规则。
2. DiffusAL: Coupling Active Learning with Graph Diffusion for Label-Efficient Node Classification
https://www.aminer.cn/pub/64c9d51e3fda6d7f0637c889/
ChatPaper综述:本文介绍了一种新颖的活性图学习方法 DiffusAL,该方法通过结合图扩散策略和三种独立的评分函数,以参数无关的方式识别最具信息量的节点样本进行标签。DiffusAL 在不同设置中表现出显著的鲁棒性,并能够有效地利用标签预算。与现有方法不同,DiffusAL 显著超越了随机选择,在大多数数据集和标签预算下的表现均优于现有方法。
3.LaplaceConfidence: a Graph-based Approach for Learning with Noisy Labels
https://www.aminer.cn/pub/64c88ca43fda6d7f06268af9/
ChatPaper综述:本文提出了一种基于图的学习方法 LaplaceConfidence,用于处理带有噪音标签的机器学习问题。在实际应用中,完美的标签很少可用,这使得开发稳健的机器学习算法来处理噪音标签变得具有挑战性。最近的方法主要集中在根据模型预测和给定噪音标签之间的差异来过滤噪音,假设分类损失较小的样本是干净的。与此不同,LaplaceConfidence 通过利用数据中的丰富表示和拓扑信息,利用拉普拉斯能量来获得标签置信度 (即干净概率)。具体而言,它首先根据所有噪音样本的特征表示构建图,并最小化拉普拉斯能量以生成低能量图。干净标签应该适应低能量图,而噪音标签则不应该,从而使我们的方法能够确定数据的干净概率。此外,LaplaceConfidence 被嵌入到一个整体的稳健训练方法中,其中共同训练技术生成无偏的标签置信度,标签修复技术更好地利用它。我们还探讨了降维技术,以适应我们的方法在大型噪音数据集上。实验结果表明,LaplaceConfidence 在基准数据集和实际噪音数据集下均优于最先进的方法。
4.TFE-GNN: A Temporal Fusion Encoder Using Graph Neural Networks for Fine-grained Encrypted Traffic Classification
https://www.aminer.cn/pub/6449f232582c1376bb22390f/
ChatPaper综述:这篇论文提出了一种名为 TFE-GNN 的模型,用于细粒度的加密流量分类。现有的方法只能提取流级别的特征,无法处理短的流量,因为它们的统计特性不可靠,或者将头部和负载同等对待,无法挖掘字节之间的潜在相关性。因此,本文提出了一种基于点间互信息 (PMI) 的字节级流量图构建方法,以及一种使用图神经网络 (GNN) 进行特征提取的模型。具体来说,我们设计了一个双嵌入层、基于 GNN 的流量图编码器以及一个交叉门控特征融合机制,可以将头部和负载字节分别嵌入,然后将它们融合在一起,获得更强的特征表示。在两个真实数据集上的实验结果表明,TFE-GNN 在细粒度的加密流量分类任务中优于多种最先进的方法。
5.HUGE: Huge Unsupervised Graph Embeddings with TPUs
https://www.aminer.cn/pub/64af9a003fda6d7f065a65ef/
ChatPaper综述:这篇论文介绍了一种名为 HUGE 的用于大规模无监督图形嵌入的高性能架构,该架构利用了 Tensor Processing Units(TPUs) 的可配置高带宽内存,以简化图形嵌入问题,并能够扩展到数十亿个节点和数万亿个边的图形。在实际和合成的大规模数据集上进行了嵌入空间质量的验证。该研究旨在满足工业和学术界在处理大量网络数据时快速分析图形的需求。
6.TimeGNN: Temporal Dynamic Graph Learning for Time Series Forecasting
https://www.aminer.cn/pub/64c33db93fda6d7f069577a0/
ChatPaper综述:这篇论文介绍了一种用于时间序列预测的新方法 TimeGNN。TimeGNN 是一种基于图神经网络的时序动态图学习方法,能够学习动态时间图表示,捕捉多系列之间的相关性和演化模式。与现有的基于图的方法相比,TimeGNN 的推理速度提高了 4 到 80 倍,同时预测性能保持相当。该方法在许多科学和工程领域的实际应用中具有重要核心地位。
7.Efficient Learning of Discrete-Continuous Computation Graphs
https://www.aminer.cn/pub/61a8853b6750f82b17638bb6/
ChatPaper综述:本文主要研究了如何高效地学习离散-- 连续计算图,这种计算图广泛应用于监督学习和强化学习中的各种模型,具有可组合性、更好泛化能力和更强解释性的优点。一种流行的构建离散-- 连续计算图的方法是将离散概率分布集成到神经网络中,使用随机软最大趋势。以前的工作主要关注具有单个离散组件的计算图的执行路径。本文分析了更复杂的具有多个序列离散组件的随机计算图的行为。我们发现,优化这些模型的参数是具有挑战性的,主要是由于梯度较小和局部最小值。为了克服这些挑战,我们提出了两种新策略。首先,我们表明,在训练过程中增加 Gumbel 噪声扰动的尺度参数可以改善学习行为。其次,我们提出了一种专门针对随机、离散-- 连续计算图的 dropout 残差连接。通过广泛的实验,我们证明了我们可以使用标准随机软最大趋势无法训练的复杂离散-- 连续模型,并且这些复杂离散-- 随机模型在几个基准数据集上的泛化能力比其连续对照要好。
8.Self-Supervised Graph Transformer for Deepfake Detection
https://www.aminer.cn/pub/64c33dc33fda6d7f0695873b/
ChatPaper综述:本论文提出了一种用于深度伪造检测的自监督图变换器框架,以解决现有方法在测试未见过的样本时性能下降的问题。该框架包括三个关键组件:基于视觉 Transformer 架构的特征提取器,通过自监督对比学习方法进行预训练;与 Transformer 判别器耦合的图卷积网络;以及提供操纵区域更好理解并进一步解释模型决策的图 Transformer 相关性图。为了评估所提出框架的有效性,进行了多项挑战性实验,包括在数据分布内的性能、跨数据集、跨操纵的一般化、以及对常见后处理扰动的鲁棒性。实验结果表明,所提出的深度伪造检测框架在有效性方面超过了当前的最先进方法。
9.Graph Condensation for Inductive Node Representation Learning
https://www.aminer.cn/pub/64c88ca33fda6d7f062686fe/
ChatPaper综述:关于一种称为"图凝缩"的技术,用于处理大规模图时遇到的计算难题,同时保留性能。然而,由于节点之间的拓扑结构,图凝缩仅限于仅凝缩观察到的训练节点及其相应结构,从而缺乏处理未见数据的能力。因此,在推理阶段,仍然需要原始的大图来进行消息传递以诱导节点,导致计算需求很大。为了克服这个问题,作者提出了一种名为"映射感知图凝缩"(MCond) 的方法,该方法显式地从原始节点到合成节点学习一对一的节点映射,将新节点无缝集成到合成图中进行归纳表示学习。这使得能够在合成图上进行直接的信息传播,比在大型原始图上要高效得多。具体来说,MCond 采用交替优化方案和创新损失项,从归纳和诱导两个角度促进图凝缩和节点映射学习的相互促进。广泛的实验证明了作者方法在归纳推理中的有效性。在 Reddit 数据集上,MCond 实现了高达 121.5 倍的推理速度提升和 55.9 倍的存储需求减少,与基于原始图的对照方法相比。
10.MUSE: Multi-View Contrastive Learning for Heterophilic Graphs
https://www.aminer.cn/pub/64c88ca43fda6d7f0626874e/
ChatPaper综述:近年来,自监督学习已成为解决传统 GNNs 中标签依赖性和一般化性能不佳问题的有前景的方法。然而,现有的自监督方法在异质图中的效果有限,因为同质性假设导致连接节点具有类似的节点表示。在本工作中,我们提出了一种用于异质图的多视图对比学习模型,即 MUSE。具体来说,我们通过使用增强对比学习的 GNN 分别构建两个视图,以捕捉 ego 节点及其邻居的信息。然后,我们将这两个视图中的信息整合起来融合节点表示。利用融合对比来提高融合节点表示的有效性。此外,考虑到邻居上下文信息对信息融合的影响可能因不同的 ego 节点而异,我们采用信息融合控制器来建模局部和全局节点邻居相似性的多样性。最后,采用交替训练方案,确保无监督节点表示学习和信息融合控制器可以相互加强。我们在 9 个基准数据集上进行广泛的实验,以评估 MUSE 的性能。我们的结果表明,MUSE 在节点分类和聚类任务上都非常有效。