欢迎光临散文网 会员登陆 & 注册

2023年3月14日,论文阅读速记

2023-03-14 22:45 作者:blgpb  | 我要投稿

Multi-task Self-supervised Graph Neural Networks Enable Stronger Task Generalization

https://openreview.net/pdf?id=1tHAZRqftM

这篇论文认为现在基于对比学习的,基于生成的图自监督学习,只利用了一种思想,例如,要么只利用了互信息最大化,要么只利用了生成式重建。当它们应用于各种下游任务时,这些框架很少能在每项下游任务中表现得同样出色,因为一种理念可能无法涵盖所有下游任务所需的广泛知识。为了增强跨任务的任务泛化,作为探索基本图模型的重要第一步,这篇论文引入了一个用于图上节点表示学习的多任务SSL框架。


Look in The Mirror: Molecular Graph Contrastive Learning with Line Graph

https://openreview.net/pdf?id=pzH2Sltp2--

这篇文章使用了line graph,所谓line graph就是把原图中的边当作节点,重新绘制出图。这篇文章使用对比学习,将原图和line graph当作两个view,将它们进行对比学习。其实line graph是一个很早就有的概念,而且最近也有人用过这个方法,我记得我也看过这个论文。

X. Jiang, P. Ji, and S. Li, “Censnet: Convolution with edge-node switching in graph neural networks,” in IJCAI, 2019

Co-embedding of Nodes and Edges with Graph Neural Networks (https://arxiv.org/pdf/2010.13242.pdf)

我当初也想把它用来做对比学习的,但是发现原图和line graph的特征相差很大,对比后的效果并不好。


Self-attentive Rationalization for Graph Contrastive Learning

https://openreview.net/pdf?id=CdU7ApBxICO

这篇文章认为,现有的图对比学习方法的增广存在2个问题:非启发式,增广需要领域知识的指导;增广方式复杂,训练不稳定。

作者提出了结合 rationale generator 以及graph transformer的方法,能够用注意力来引导增广的过程。


Towards Equivariant Graph Contrastive Learning via Cross-Graph Augmentation 

https://openreview.net/pdf?id=9L1Ts8t66YK

这项工作提出了等变图对比学习(一种对比学习框架(E-GCL)),它采用了两个原则:对图内增强的不变性和对图间增强的等变性。有趣的是,这项工作表明,攻击性增强可能会恶化表现,并导致次优性能。该工作使用混合过程作为交叉图增强的方法,并认为交叉图增强捕获全局语义偏移,并产生更好的性能。在无监督学习和转移学习任务中进行了实验,以显示模型的有效性。



Graph Contrastive Learning with Model Perturbation

https://openreview.net/pdf?id=rfvuuHmqHOQ

这篇文章认为选择合适的图增强是复杂的,不稳定的,困难的,需要付出大量时间的。因此,作者没有对图的节点,边和特征进行扰动,而是对GNN网络进行扰动。

2023年3月14日,论文阅读速记的评论 (共 条)

分享到微博请遵守国家法律