- Interpretable stability bounds for spectral graph filters
本文计算了图扰动时的稳定性上界,对量化模型的鲁棒性、对抗攻击等有积极意义。图扰动包括增加和删除edge等。稳定性的度量是扰动前和扰动后的图卷积的归一化L2距离,结论可以概括为一条不等式:
文章的试验结果我看不懂。
- DeepWalking backwards from embeddings back to graphs
文章理论和实验论述了node embedding不能表达一些细节信息,但是可以表达全局信息。细节信息有三角边、度数等,全局信息主要是community structure。这意味着node embedding做聚类可能比较好?
- Elastic graph neural networks
概括地来说就是此文引入了Graph L1平滑正则化。作者在2020年有一篇ICLR被拒的文章证明了一些常见的图卷积等价于一个图信号平滑的优化问题:
F代表平滑后的信号,X代表原始图信号。这个式子的含义很明确,左侧的目的是使得F和X尽量接近,右侧作为平滑正则化目的是使得F尽量更平滑。c代表着平滑正则化参数。是平滑图信号的二次型,作为L2正则化,与此同时作者引入了L1正则化:
其中是图差分算子
作者认为,图平滑L1正则化的意义在于使得平滑图信号更加稀疏,也就是说当时更大概率等于零向量。作者提出了一个优化算法求解Elastic message passing,但是我看不懂。。。实验结果,分数和APPNP模型差不多吧。
- Graph neural diffusion
作者从热扩散方程(一个PDE)以及黎曼流形的梯度算子、散度算子出发,经过一番推导,得到graph中的热扩散方程:
其中是第t步的attention矩阵,后面将会用self attention方法得到这个矩阵。这个attention好像是没有根据edge做mask的,我也不是很清楚他的物理含义是什么。作者用GNN的层数比作热扩散的时间步,就有:
根据这个式子推导出图卷积的公式。作者还讨论了explicit schemes和implicit schemes等不同的图卷积方法来加速,不过我看不懂。。。模型在32层的时候node classification还能保持很好的performence,作者认为此模型是已经解决了depth、oversmoothing和bottleneck问题的:
很有意思的是,作者还用这个模型跑了一下mnist,展示了像素热扩散的attention矩阵,实验结果显示attention矩阵能很好地描绘数字在图像里的边缘:
- Graph Convolution for Semi-Supervised Classification: Improved Linear Separability and Out-of-Distribution Generalization
文章的标题已经高度概括了此研究的结论:在半监督分类中,图卷积使得数据更容易线性可分,也增强了training set分布外的泛化性。我们用CSBM模型来模拟一个图,这个模型是Gaussian Mixture Model与Stochastic Block Model结合在一起。有两个类别,每个类别服从一个d维高斯分布,如果和在同一类,那么邻接矩阵的第i行第j列服从,如果和不在同一类,则服从。
本文理论和实验的结论是:
- 在给定条件下,图卷积后的信号线性可分的概率收敛于1
- 没有图卷积时,loss的下界;带有图卷积且数据线性可分时,loss的上界
- 泛化性:图卷积网络在新数据的loss上界
证明过程写得太拉胯了,我看不懂。。。