标签传达与简略模型结合可逾越图神经网络

原文地址:cf020031308.github.io/papers/2020…

  1. 关于 transductive 的节点分类使命,根据算法的五个特性松散的算法也很有用,但不被注重
    • 一个履历:ogbn-arxiv 数据集中,仅仅简略地将节点分类为范畴中最多的类就能有 61% 的准确率。
  2. 相邻节点上的分类与猜想残差是正相关的

Correct and Smooth (C&S)

  1. Base Predgitlabict: 用一个算法的时刻复杂度是指什么非 GNgit教程N 的简略模型(如根据节点算法特征或嵌入的 MLP)对节点分类
  2. Correc: 用 GNN 的方法建模实在作用与上一步作用的残差
  3. Smooth: 用 Label Propagation (2015) 算法对上一步的作用进行滑润

标签传达与简略模型结合可逾越图神经网络

Label Pgithub是干什么的ropagation

记正规化后的邻接矩阵 S=D−1/2AD−1/算法的时刻复杂度是指什么2S = D^{-1/2} A D^{-1/github中文社区2},节点的作用矩阵(每个节点一行)为 Y,LP 算法经过迭代
Y=(1−)Y+SYY = (1 – alpha) Y + alpha S Y
将练习集上的作用传抵达全图,直至收敛。

收敛解 Y^hat Y 会使
tr(Y^T(I−S算法的时刻复杂度是指什么)Y^)+(1−1)∣∣Y^−Y∣∣2text{tr}(hat Y^T (I – S) hat Y) + (frac1alpha – 1) ||hat Y – Y ||^2
最小化。算法的时刻复杂度是指什么前一部分的最小化保证估量是滑润的,后一部分保证估量作用与实践作用算法的特征尽量近。

Correct 的完成细节

C&S 流程中,除了 Smooth 环节清晰用 LP,另外两个部分的算法都可以替换。

在本文中,Correct 环节同样是运用 LPGit 算法,将练习集上的残差传抵达全图上
E=(1−)E+SEE = (1 – alpha) E + alpha S E

但在迭代过程中,残差会越来越小
∣∣(1−)E+SE∣∣2≤(1−)∣∣E∣∣2+∣∣S∣∣2∣∣E∣∣2=∣∣E∣∣2||(1 – alpha) E + alpha S E||_2 le (1 – alpha) ||E||_2 + alpha ||S||_2 ||E||_2 = ||E||_2
所以需求进行批改

  1. Autoscale. 给练习集以外的残差估量乘github中文社区以一个系数,使其绝对均值与练习集持平
  2. Scaled Fixed Diffusion (FDiff-scale). 换一种松散算法:算法的有穷性是指E=D−1AEE = D^{-1}AE 一同不改动练习集上的残差(其间 D−1AD^{-1}A 可以幻想为转移矩阵)

实验作用

参数量很低乃至不需求学习参数就能有很好的体现,学习起来也很快。
分类作用github开放私库在多个数据算法的特征集上都超过了 SotA,目前在 OGB 的节点分类使命github下载榜 上多个使命都github中文官网网页排名靠前。

标签传达与简略模型结合可逾越图神经网络