
2025年1月23日,由博士梁斌和博士生陈诗炜牵头撰写的论文《Centrality-guided Pre-training for Graph》获第13届国际学习表征会议(The Thirteenth International Conference on Learning Representations,ICLR 2025)录用。ICLR是深度学习领域的顶级会议,与NeurIPS、ICML并称为机器学习领域三大顶会。ICLR 2025共接收11,565份投稿,录用率为32.08%,今年会议将于2025年4月24日至28日在新加坡召开。
论文信息如下:
题目:Centrality-guided Pre-training for Graph
作者:Bin Liang, Shiwei Chen, Lin Gui, Hui Wang, Yue Yu, Ruifeng Xu*, Kam-Fai Wong
合作单位:香港中文大学,鹏城实验室,伦敦国王学院
近年来,自监督学习在图表示学习中取得了显著进展。然而,现有的方法在学习图表示时,往往忽略了不同节点的作用和在图中重要性是存在差异的。为此,本文提出CenPre(Centrality-guided Pre-training),首次提出在预训练阶段基于图的中心性来对图表示进行重要性对齐。具体而言,在节点级重要性学习过程中,基于度中心性的定义,我们提出了节点重要性学习方法,旨在通过识别节点的度来区分节点的重要性,使得图中不同重要性的节点在学习图表示发挥出不同的作用。在图级别重要性学习过程中,我们基于特征向量中心性来挖掘图中节点对于各个相关节点的重要性,并基于全图的邻居节点重要程度来对齐节点的表示。基于此,我们提出的方法在学习图表示时,可以同时考虑节点本身的重要性以及其在全图中的重要性,并通过一个对齐过程使图表示在学习重要性的同时也不丢失原有的语义信息,从而有效提升图的表示。最终在公开数据集上的节点分类、链接预测和图分类三个任务中的实验结果表明,我们提出的方法取得了最优性能。
Bin Liang, Shiwei Chen, Lin Gui, Hui Wang, Yue Yu, Ruifeng Xu*, Kam-Fai Wong. Centrality-guided Pre-training for Graph. The Thirteenth International Conference on Learning Representations, 2025.
|