2023年3月14日,论文阅读速记
Multi-task Self-supervised Graph Neural Networks Enable Stronger Task Generalization
https://openreview.net/pdf?id=1tHAZRqftM
这篇论文认为现在基于对比学习的,基于生成的图自监督学习,只利用了一种思想,例如,要么只利用了互信息最大化,要么只利用了生成式重建。当它们应用于各种下游任务时,这些框架很少能在每项下游任务中表现得同样出色,因为一种理念可能无法涵盖所有下游任务所需的广泛知识。为了增强跨任务的任务泛化,作为探索基本图模型的重要第一步,这篇论文引入了一个用于图上节点表示学习的多任务SSL框架。
Look in The Mirror: Molecular Graph Contrastive Learning with Line Graph
https://openreview.net/pdf?id=pzH2Sltp2--
这篇文章使用了line graph,所谓line graph就是把原图中的边当作节点,重新绘制出图。这篇文章使用对比学习,将原图和line graph当作两个view,将它们进行对比学习。其实line graph是一个很早就有的概念,而且最近也有人用过这个方法,我记得我也看过这个论文。
X. Jiang, P. Ji, and S. Li, “Censnet: Convolution with edge-node switching in graph neural networks,” in IJCAI, 2019
Co-embedding of Nodes and Edges with Graph Neural Networks (https://arxiv.org/pdf/2010.13242.pdf)
我当初也想把它用来做对比学习的,但是发现原图和line graph的特征相差很大,对比后的效果并不好。
Self-attentive Rationalization for Graph Contrastive Learning
https://openreview.net/pdf?id=CdU7ApBxICO
这篇文章认为,现有的图对比学习方法的增广存在2个问题:非启发式,增广需要领域知识的指导;增广方式复杂,训练不稳定。
作者提出了结合 rationale generator 以及graph transformer的方法,能够用注意力来引导增广的过程。
Towards Equivariant Graph Contrastive Learning via Cross-Graph Augmentation
https://openreview.net/pdf?id=9L1Ts8t66YK
这项工作提出了等变图对比学习(一种对比学习框架(E-GCL)),它采用了两个原则:对图内增强的不变性和对图间增强的等变性。有趣的是,这项工作表明,攻击性增强可能会恶化表现,并导致次优性能。该工作使用混合过程作为交叉图增强的方法,并认为交叉图增强捕获全局语义偏移,并产生更好的性能。在无监督学习和转移学习任务中进行了实验,以显示模型的有效性。
Graph Contrastive Learning with Model Perturbation
https://openreview.net/pdf?id=rfvuuHmqHOQ
这篇文章认为选择合适的图增强是复杂的,不稳定的,困难的,需要付出大量时间的。因此,作者没有对图的节点,边和特征进行扰动,而是对GNN网络进行扰动。