AI新手友好帖「图神经网络前沿进展与应用」中文综述
来源:图与推荐公众号
编辑:学姐带你玩AI公众号
图神经网络最新综述论文

图结构数据是现实生活中广泛存在的一类数据形式。宏观上的互联网、知识图谱、社交网络数据,微观上 的蛋白质、化合物分子等都可以用图结构来建模和表示。由于图结构数据的复杂性和异质性,对图结构数据的分析和处理一直是研究界的难点和重点。
图神经网络(GraphNeuralNetwork,GNN)是近年来出现的一种利用深度学习直接对图结构数据进行学习的框架,其优异的性能引起了学者高度的关注和深入的探索.通过在图中的节点和 边上制定一定的策略,GNN 将图结构数据转化为规范而标准的表示,并输入到多种不同的神经网络中进行训练,在节点分类、边信息传播和图聚类等任务上取得优良的效果.与其他图学习算法相比较,GNN能够学习到图结构数据中的节点以及边的内在规律和更加深层次的语义特征。由于具有对图结构数据强大的非线性拟合能力,因此 在不同领域的图相关问题上,GNN 都表现出更高的准确率和更好的鲁棒性.
本文在现有GNN研究的基础上,首先 概述了GNN的出现历程,并介绍了相关概念和定义。之后本文着重讨论和对比了 GNN 中的各种算法框架,包括 核心思想、任务划分、学习方式、优缺点、适用范围、实现成本等。此外,本文对GNN算法在多个不同领域下的应用 场景进行了详细的阐述,将GNN与其他图学习算法的优缺点作了联系和比较.针对存在的一些问题和挑战,本文勾画了GNN的未来方向和发展趋势,最后对全文进行了全面而细致的总结。
https://cjc.ict.ac.cn/online/onlinepaper/WB-2022121103627.pdf
引言
近年来, 深 度 学 习[1]在 多 个 领 域 取 得 明 显 优 异的效果, 特别是在计算机视觉、音频识别以及自然语言处理三个方面取得突破性进展。深度学习通过建立人工神经网络,对输入的信息和数据逐层进行特征的提取和筛选,最终获得分类和预测等任务的结果。相较于统计机器学习等浅层学习模式,深度学习所使用的神经网络架构具有多个功能各异的复杂网络层,其特征提取和识别的数量和质量显著提高,并且能够自底向上生成更加高级的特征表示。
这使得机器能够获得抽象概念, 具备 更 强 的 表 征 学 习 能 力[2].诸 如 多 层 感 知 机 (MultilayerPerceptron,MLP)[3]、卷 积 神 经 网 络 (ConvolutionalNeuralNetwork,CNN)[4]、循 环 神 经网络(RecurrentNeuralNetwork,RNN)[5]、生成 对 抗 网 络 (Generative Adversarial Network,GAN)[6]和自编码器(Auto-encoder,AE [7]等性能优 异的神经网络已经成为许多研究领域解决问题的通用网络框架。

但是随着研究的深入,研究人员发现深度学习 并不能适应和解决所有的情况和问题。在过去十多 年的发展中,深度学习取得的成就主要限定在了计 算机视觉、自然语言处理和音频分析领域上.这些领 域上的数据和信息有着比较显著的特点。文本、图 像、音频、视频的数据格式在形式上有着统一而规整 的尺寸和维度,它们也被称作欧式结构(Euclidean Structure)或者网格结构(GridStructure)数据。除此之外,现实生活中存在大量的非欧式结构的图数 据,例如互联网、知识图谱、社交网络、蛋白质、化合 物分子等。
尽管深度学习在欧式结构数据上取得巨大的成功,但在图结构数据上,基于神经网络的深度学习表现得并不好。在图结构数据中,节点与节点之间的边连接可能是均匀分布的,也可能是不均匀的。节点与节点之间没有严格意义上的先后顺序。对于神经网络的输入端而言,这些数据没有固定的输入尺寸。
在数学表达上,这些数据与欧式结构数据相比,每一个区块的特征矩阵维度都不是统一的,如图1所示。由于无法使用统一规整的算子对数据编排,导致 CNN 等神经网络不能再直接对其进行诸如卷 积和池化等操作,也就不再有局部连接、权值共享、 特征抽象等性质[8]。如何将 CNN 等深度学习算法 用于分析图结构数据上成为一个有挑战性和前沿性的课题。
近年来Gori等人[9]用 RNN 来压缩节点信 息和学习图节点标签,首次提出图神经网络(Graph NeuralNetwork,GNN)这一概念。之后文献[10]提出图卷积网络 (Graph Convolutional Network, GCN),正式将 CNN 用于对图结构数据建模。
GCN 通过整合中心节点和邻居节点的特征和标签信息,给出图中每个节点的规整表达形式,并将其输入到CNN 中。这样一来 GCN 就能利用多尺度的信息,组合成更高层次的表达。其有效地利用了图结构信 息和属性信息,为深度学习中其他神经网络迁移至 图上提供了标准的范式。
在新的研究思路的基础上, 各种 GNN 架构相继被构造出来,在多个领域的图结构数据中发挥了独特的作用,并促进了图相关的人工智能推理任务的发展。
本文针对近年来出现的 GNN 学习方法和研究现状进行了系统的归纳和梳理,并对它们的主要思 想、改进以及局限性做了详尽分析。目前已有 Xu等人[11]关于图卷积神经网络的综述,本文在全面对比分析的基础上,对目前主要的 GNN 算法进行了更加合理的分类和介绍。
除了图卷积神经网络,GNN主流算法还包括有图自编码器、图生成网络、图循环网络以及图注意力网络。本文对每类 GNN 算法都 给出了其定义和典型方法,将 GNN 中每种算法的机制、优势、缺点、适用范围、实现成本等进行了提炼总结。在进行了相应的数据实验基础上,与其他基准 图算法进行了比对。本文在第2节中给出关于 GNN 的基本概念和定义;在第3节分门别类的给出 GNN 的主要模型和算法;在第4节,对比和分析 GNN 与 网络嵌入(NetworkEmbedding)以 及 图 核 (Graph Kernel)方法的特性和优势.在第5节中,阐述目前 GNN 在多个领域图数据上的具体应用;在第6节归 纳和总结现有 GNN 模型缺陷和不足,并对未来发 展方向和趋势进行展望.最后在第7节对全文所述进行总结。
图神经网络模型
图卷积网络
图卷积网络 (GraphConvolutionalNetwork, GCN)进行卷积操作主要有两种方法:
一种是基于谱分解,即谱分解图卷积。另一种是基于节点空间变 换,即空间图卷积。Bruna等人[10]第一次将卷积神经网路泛化到图数据上,提出两种并列的图卷积模型———谱分解图卷积和空间图卷积。Bruna等人对 比分析了一般图结构数据和网格数据共有的特点和 不同之处,综合运用了空间图卷积和谱分解处理图 像聚类问题。下面本文对谱分解图卷积和空间图卷 积进行详细的梳理和介绍。


图自编码器
在深度学习领域,自编码器 (Auto-encoder, AE)是一类将输入信息进行表征学习的人工神经网 络.自编码器一般包含编码器和解码器两个部分,基于自编码器的 GNN 被称为图自编码器(GraphAuto-encoder,GAE),可以半监督或者无监督地学习 图节点信息.如图3所示

在图自编码器上,文献[54]提出基于深度神经网络的 表 示 模 型 (Deep NeuralNetworkforGraph Representations,DNGR)。DNGR 采用随机游走模型(RandomSurfingModel)获取图结构信息,生成概率共现矩阵,并在概率共现矩阵的基础上计算PPMI矩阵.在图节点嵌入表示学习上,DNGR设计了一个叠加去噪自编码器(StackedDenoisingAuto-encoder,SDA),输入PPMI矩阵学习图节点低维 表示,并且输入的一部分会被随机置零以提高模型的鲁棒性。
DNGR的优点在于能学习到有向图中更多的结构信息,其生成的低维嵌入表示可以用于不 同的下游任务。但缺点是忽略了图属性信息,没有将图属性和图结构信息一并纳入到模型框架中,因此图结构的轻微变化就会影响节点表示的好坏。
针对节点内容信息的收集,Wang 等人[55]提出一种边缘图自编码器 (Marginalized Graph Autoencoder, MGAE)算法。其在自编码器中使用基于谱分解的图卷积网络层,整合节点属性特征和图结构信息,使得它们之间能进行数据交互。
MGAE堆叠多层图形自编码器,以建立一个深层次的架构来学习有效的节点表示。Wang等人认为在训练中随机噪声引起 的干扰可能会提供更有效的输出表示,因此会在节点 内容特征中动态地加入一些干扰项。通过将某些特征值置为零,获得在大规模图上学习的能力。MGAE构 建了优化器以确保编码的节点属性信息和真实属性 信息之间的误差最小化。在得到每个节点的表示后, MGAE使用谱聚类算法得到图聚类结果。

图生成网络
建模和生成图是研究生物工程和社会科学网络的基础。图生成网络(GraphGenerativeNetwork, GGN)是一类用来生成图数据的 GNN,其使用一定的规则对节点和边进行重新组合,最终生成具有特 定属性和要求的目标图。然而,在图上模拟复杂分 布,并从这些分布中有效地采样是比较困难的。因为有些图数据具有非唯一性、高维性质,图中边缘之间存在复杂的非局部依赖性。因此不能假设所有的图数据都来自于同一个先验分布,尤其是对于异质图, 模型在识别过程中必须要具有平移不变性。因此GGN 着重用来解决这类问题和克服其中的难点。GGN 的输入可以是节点或者边向量,也可以是给定的图嵌入表示,然后对采样的数据学习后合成各种任务所需要的图。

图循环网络
图循环网络(GraphRecurrentNetwork,GRN)
是最早出现的一种 GNN 模型。相较于其他的GNN
算法,GRN 通常将图数据转换为序列,在训练的过程中序列会不断地递归演进和变化。GRN模型一般
使用双向循环神经网络 (BidirectionalRNN,BiRNN)和长短期记忆网络(LongShort-Term MemoryNetwork,LSTM)作为网络架构。

图注意力网络
注意力机制可以让一个神经网络只关注任务学习所需要的信息,它能够选择特定的输入[96]。在GNN中引入注意力机制可以让神经网络关注对任 务更加相关的节点和边,提升训练的有效性和测试的精度,由此形成图注意力网络(GraphAttention Network,GAT)。

图神经网络总结分析
通过前文的归纳和分析, 从总体上看, 图神经网络可以分为五类: 图卷积网络、图自编码器、图生成网络、图循环网络和图注意力网络。每种图神经网络 都有自己对图结构数据处理的一套算法和体系,其 中的原理和适用的范围也有一定差别。当然它们之 间不是相互孤立和排斥的,例如文献[59,65]的图自 编码器中包含图卷积层,文献[91,95]的图循环网络为了图序列学习更有效,也会加入注意力模块。而图注意力网络也大多以其他图神经网络框架为基础, 构建合适的节点、边以及图注意力网络层。因此在实 际操作当中,需要根据图的分布和特征信息,以及任 务的实际需求,选择合适的图神经网络,来更加有效 地学习图结构数据。 表7是 GNN 机制、优点、缺点、 适用范围及实现成本汇总表。

图神经网络应用
由于GNN能较好地学习图结构数据的特征, 因此在许多图相关的领域有着广泛的应用。若按照 应用中图的层次结构划分,则大体可以分为节点、边和图层面。在节点层面,常见的有节点分类、节点聚合、节点表示学习。在边层面,则有边分类、边聚类以 及链接预测。在图层面,图分类、图生成、子图划分、 图相似度分析等应用较为广泛。按照图的种类划分, 可以分为引文网络、社交网络、交通网络、图像、化合 物分子结构、蛋白质网络等。按照应用领域划分,可 以分为自然语言处理、图像处理、轨迹预测、物理化学和药物医学等。为了方便说明和阐述, 本文从GNN 的主要应用领域这一角度出发,对近年来出现 的 GNN 应用实例进行分类归纳。




图神经网络未来研究方向
GNN 的核心在于规范化表示的图结构数据并 用深度神经网络进行学习。经过近些年的不断发展, 通过大量数学证明和实验分析后,GNN 在理论上和实践上都被证实是对图结构数据处理的一种有效方 法和框架。尽管 GNN 在各个领域的图数据上取得 了不俗的表现和较好的普适性,但是GNN仍然存 在一定的不足和需要完善的地方。根据目前国内外的研究现状,下面本文对 GNN 的一些制约因素和 未来发展方向进行探讨。
网络深度
在计算机视觉、自然语言处理和音频处理中,神 经网络的层数可以叠加多层.在一定范围内,神经网 络层数的增加可以更好地提取数据中的特征信息。例如深层残差网络 ResNet [150]可以达到152层。但是GNN的邻居节点聚合中,随着网络层数的增加, 邻居节点的阶数会不断扩张,导致中心节点聚合特 征数量成指数变多。这在大规模数据集上,尤其是节 点之间的边连接数量较多时表现的非常明显。随之 而来的是训练过程中计算复杂度的剧增,并可能导 致过拟合的现象发生.这也就意味着随着层数的增加,GNN 模型性能会急剧下降。如果想要加深网络 层数,就必须限制每层节点数量。但是这也会使得特 征聚集的量变少,导致节点之间信息传播受阻。如何 解决这一矛盾性问题是将来研究的重点之一。
动态性
就目前来看,现有的 GNN 大多处理的是静态齐次图。一方面,GNN 框架会假定图结构是固定的; 另一方面,GNN 框架会假设图中的节点和边来自于单一源分布.然而,这两个假设在许多情况下并不能 同时成立.在社交网络中,新的人可以随时进入网络,并且现有的人也可以退出网络.在推荐系统中, 产品可能有不同的类型,其输入可能有不同的形式, 如文本或图像。特别是在超大规模的图中,节点的个 数和边的个数可能有百万、千万乃至上亿。尤其是随 着数据的增加和改变,节点和边的个数以及节点和边的类型都可能发生动态的变化。在这些任务处理 中,图的动态变化是不能忽视的。特别是在固定尺寸下,因为某个节点或者边发生改变而重新学习整个图将会使得代价十分昂贵。而大多数GNN对于大型图具有很好的伸缩性。
其主要原因是当堆叠GNN的多个层时,节点的最终状态涉及大量邻居的隐藏状态,导致反向传播的高复杂性。虽然目前有一 定的文献[94-95,136-137]在研究图的时空动态性,但是面对更大规模和更加复杂的动态异质图数据时还不够有效。因此如何对图的动态性进行有效的适应是未 来的研究方向之一。
感受域
一个节点的感受域是指一组节点集合,包括中心节点及其邻居节点。感受域大小是决定邻居节点数量的关键参数。在大规模图数据集中,平均每个节点周围有多个邻居节点存在。随着网络层数的增加, 邻居节点会递归增加数目,感受域也随之快速扩张。这可能会超过存储空间的上限。
此外,一些节点可能只有一个邻居,而另外节点可能有多达数千个邻居。邻居节点分布不均衡使得每个中心节点的感受域大小不一致。尽管可以通过添加“哑结点”和删除邻居 节点的方式保持数据大小和维度的一致,但是在特征的聚集和融合中不可避免的会有信息损失现象发生,而现有的采样方法还不能完全解决该问题。
多网络的融合
由于现实世界数据的复杂性,抽象出来的图结构也会有很多的种类和变体。有向无向、异质非异 质、带权不带权等等,大部分的GNN仅能处理其中的某一种类型。而更普遍的情况是各种各样的图混 杂在一起,并且希望 GNN 能满足诸如节点分类、图分类、可视化、图生成等多种任务需求。在这种复杂 的高强度的任务要求下,单一的神经网络作用过于 有限。因此对于更加复杂的情况,有必要进行多网络 融合。
目前比较主流的多网络融合方式是GCN与其他GNN算法相结合。例如在节点属性和图拓扑结构信息的获取上,GCN 明显具有较高的性能和良 好的适应性,在节点分类问题上会表现良好.鉴于其 优点,在 GAE中不乏部分模型使用 GCN 作为编码器,取得较好的效果.但如果还需要进行链接预测、 节点生成或者图生成,GCN 则有点力不从心了。
此时可以再增设一个 GGN,输入GCN处理后的节点 嵌入向量,在GGN 内生成概率分布,完成生成式任务。如果图在不断地递归演进,形成了图序列。则可以利用 GRN来处理,以攘括多个步骤下的图信息。因此在GNN框架中构造不同用途的深度神经网络,从不 同的侧面来提取和整合数据的特征是十分有必要的。此外可以对诸如深度置信网络 (DeepBeliefNetwork)[151]、Transformer [152]等神经网络进行改造,将 其泛化和应用至图结构数据学习上。
与网络嵌入的结合
网络嵌入可以将原始图数据的高维稀疏矩阵转变为低维度稠密的向量,这可以大幅度压缩存储空间,并提取有效的图信息。一般图节点的原始特征矩 阵是高维稀疏的,对于一个 N ×F 的特征矩阵,当 F 比较大时,所需要的存储空间也相应的增加。如果矩阵比较稀疏,那么存储效率也会比较低下。网络嵌入则可以利用图结构信息,生成低维连续的节点特 征表示,避免存储空间浪费。
其次,由于生成的节点 嵌入表示包含了部分邻居节点信息,所以中心节点 的感受域也可以相应的减少。对于多层图卷积和需要迭代压缩的 GNN 来说,一定程度上可以减少网 络层数和迭代压缩次数。
例如 Kipf等人[27]半监督 GCN 复杂度为O(|E|FC),DeepWalk [110]的复杂 度为O(log(N))。
当边连接比较密集并且节点特征 维度很大时,复杂度较高.如果对节点特征降维,使 得降维之后的维度 F' ≪ F ,这样总体复杂度变为 O(log(N))+O(|E|F'C).尽管增加了网络嵌入的计算时间,但是在图卷积层可以大幅度降低计算开销,这样可以提高训练的有效性以及降低计算复杂度。文献[66,76,86]就使用随机游走等网络嵌入方法 来为GNN模型构建输入序列,除此之外未来研究中也可以尝试诸如 Node2vec [77]、LINE [153]等网络 嵌入方法来对 GNN 的输入端进行改进。
— 完 —
点个赞给学姐午饭加个大鸡腿🍗~