世間好物不堅牢,看新闻看天下。
做最好的新闻

澳门金沙支付充值中心授权网站·一文读懂简化的图卷积网络GCN(SGC)| ICML 2019

人气:3209时间:2020-01-11 10:08:38

澳门金沙支付充值中心授权网站·一文读懂简化的图卷积网络GCN(SGC)| ICML 2019

澳门金沙支付充值中心授权网站,作者 | yyl424525

来源 | csdn博客

文章目录

1 相关介绍

1.1 simple graph convolution (sgc)提出的背景

1.2 sgc效果

2 simple graph convolution 简化的图卷积

2.1 符号定义

2.2 图卷积网络gcn

gcn vs mlp

feature propagation 特征传播

feature transformation and nonlinear transition

分类器

2.3 简化的图卷积sgc

线性化

逻辑回归

优化细节

3 谱分析

3.1 在图上的初步做法

3.2 sgc and low-pass filtering 简化的图卷积和低通滤波器

4 相关工作

4.1 图神经网络

4.2 其他在图上的工作

graph embedding methods

5 实验结果

5.1 citation networks & social networks

performance

efficiency

5.2 下游任务

text classification

semi-supervised user geolocation

relation extraction

zero-shot image classification

graph classification

论文:simplifying graph convolutional networks 简化的图卷积网络gcn(sgc)

作者:felix wu, tianyi zhang, amauri holanda de souza jr., christopher fifty, tao yu, kilian q. weinberger

论文链接:

https://arxiv.org/abs/1902.07153v1

github代码链接:

https://github.com/tiiiger/sgc

gcn在学习图的表示方面已经引起了广泛的关注,应用也非常广泛。gcns的灵感主要来自最近的一些深度学习方法,因此可能会继承不必要的复杂度和冗余计算。文中通过反复消除gcn层之间的非线性并将得到的函数折叠成一个线性变换来减少gcns的额外复杂度。并从理论上分析了得到的线性模型sgc,并证明了sgc相当于一个固定的低通道滤波器和一个线性分类器。实验结果表明,这些简化不会对许多下游应用的准确性产生负面影响。此外,得到的sgc模型可扩展到更大的数据集,并且比fastgcn产生两个数量级的加速。

1 相关介绍

1.1 simple graph convolution (sgc)提出的背景

传统的机器学习方法的复杂度变化趋势都是从简单到复杂。例如从线性perceptron到非线性mlp,从简单的线性图片filters到cnn都是这个趋势。gcn也是源于传统的机器学习方法,继承了这个复杂度的变化。此文的目的就是要把非线性的gcn转化成一个简单的线性模型sgc,通过反复消除gcn层之间的非线性并将得到的函数折叠成一个线性变换来减少gcns的额外复杂度。

sgc中的特征提取等价在每个特征的维度上应用了单个固定的filter。

1.2 sgc效果

实验表明

这种简化了的线性sgc模型在很多任务上比gcn和一些其他gnn网络更高效,并且参数更少

并且在效率方面,在reddit数据集上比fastgcn快两个数量级

sgc在文本分类、用户地理定位、关系提取和zero-shot图像分类任务方面,即使不能超越基于gcn的方法,但至少也是竞争对手

2 simple graph convolution 简化的图卷积

2.1 符号定义

数据集中只知道部分节点的标签,目标是预测未知的节点的标签。

2.2 图卷积网络gcn

gcn vs mlp

gcns和mlps相似,都是通过多层网络学习一个节点的特征向量xi,然后再把这个学到的特征向量送入的一个线性分类器中进行分类任务。一个k层gcn与k 层mlp在应用于图中每个节点的特征向量xi是相同的,不同之处在于每个节点的隐藏表示在每一层的输入时是取的它的邻居的平均。

每个图中的卷积层和节点表示都是使用三个策略来更新

特征传播

线性转换

逐点非线性激活

feature propagation 特征传播

gcn的特征传播是区别mlp的,因为每一层的输入都是节点局部邻居的平均值:

(2)

用一个简单的矩阵运算来表示公式(2)的更新:

(3)

s表示添加自循环“normalized”的邻接矩阵(实际上并没有归一化)

a˜=a+1是a \mathbf{a}a的度矩阵

d˜是a的度矩阵

用公式(2)对所有节点进行同时更新,得到了一个简单的稀疏矩阵乘法:

(4)

这一步平滑了沿着图的边的局部隐藏表示,并最终支持在局部连接的节点之间进行类似的预测。

feature transformation and nonlinear transition

在局部平滑之后,一个gcn层就等于一个标准的mlp。每一个层对应一个可学习的权重矩阵

,所以平滑处理了的隐藏特征表示是线性转换的(后面乘一个参数矩阵是线性的)。最后在逐节点应用一个非线性激活函数,例如relu就可以得到输出的特征表示

(5)

分类器

对于节点分类任务,最后一层和mlp相似,都是使用一个softmax分类器预测节点的标签,一个k kk层的gcn的所有节点的类别预测可以写作:

(6)

2.3 简化的图卷积sgc

在传统的mlp中,层数变深加强了网络的表达能力,因为它允许创建特征的层次结构,例如,第二层的特征构建在第一层特征的基础上。在gcns中,每一层都有一个重要的函数:在每一层中,隐藏的表示在1跳距离的邻居之间求平均值。这意味着在k kk层之后,一个节点从图中所有k kk跳的节点处获得特征信息。这种效果类似于卷积神经网络,深度增加了内部特征的感受野。虽然卷积网络可以在层数加深时提升性能(deep networks with stochastic depth, 2016),但通常mlp的深度只限于为3至4层。

线性化

假设gcn层之间的非线性不是最关键的,最关键的是局部邻居的平均聚合操作。因此,考虑删除每层之间的非线性转换函数(如relu),只保留最终的softmax(以获得概率输出)。得到的模型是线性的

(7)

简化如下

(8)

这个简化的版本就叫做simple graph convolution (sgc)。

逻辑回归

公式(8)给了sgc的一个自然直观的解释:sgc由两部分组成

一个固定的(没有参数,parameter-free)的特征提取器(或平滑器smoothing component)

特征提取器后是一个线性逻辑回归分类器

可以看出,由于计算不需要权值,因此可以把这部分计算作为特征的预处理步骤,整个模型的训练可以直接简化为对预处理特征的多类逻辑回归。

优化细节

逻辑回归的训练是一个凸优化问题,可以用任何有效的二阶方法或随机梯度下降法进行执行(large-scale machine learning with stochastic gradient descent,2010)。在图连通模式足够稀疏的情况下,sgd可以很自然地运用在非常大的图上,sgc的训练比gcn快得多。

3 谱分析

文中从图卷积的角度来研究sgc,并证明了sgc在图谱域上对于应一个固定的滤波器。此外,还证明了在原始图上添加自循环,即renormalization trick,可以有效地缩小底层图的谱。在这个缩放的谱域上,sgc充当一个低通滤波器,在图上生成平滑的特征。因此,邻居节点倾向于共享相似的表示,从而实现预测。

3.1 在图上的初步做法

经过傅里叶变换的信号x和滤波器g的gcn卷积操作为

(11)

推导过程可以看gcn原始论文:semi-supervised classification with graph convolutional networks用图卷积进行半监督分类

最后,通过将卷积推广到d dd维的通道输入中的多个滤波器上,并在每一层之间用非线性激活函数的分层模型,就得到了如公式(5)所定义的gcn传播规则

(5)

3.2 sgc and low-pass filtering 简化的图卷积和低通滤波器

定理1

对于一个简单,没有孤立节点的无向图。令

分别是对称归一化的拉普拉斯矩阵

的最小和最大的特征值。

的最小和最大的特征值。则有

(12)

关于定理1的证明,可参考文中提供的附录部分。

从定理1可以看出,当γ>0 \gamma>0γ>0时,相当于图中添加了自循环,则归一化的拉普拉斯矩阵的最大特征值会变小。

图2描述了在cora数据集上使用的三种情况下特征值(频率)的变化和滤波器系数(谱系数)的变化关系

4 相关工作

4.1 图神经网络

spectral networks and locally connected networks on graphs,icml 2014-首次提出了一个扩展到图上的基于谱图理论的cnn网络

convolutional neural networks on graphs with fast localized spectral filtering,nips 2016-通过使用切比雪夫多项式近似消除了拉普拉斯矩阵分解带来的巨大的计算开销,定义了图卷积

semi-supervised classification with graph convolutional networks,iclr 2017-通过使用预先定义的传播矩阵s ss进行一阶切比雪夫近似,极大的降低了图卷积的计算,正式提出gcn

inductive representation learning on large graphs(graphsage),nips 2017-hamilton等人提出了一个inductive的图卷积,使用固定邻居size采样,然后进行邻居特征聚合

diffusion-convolutional neural networks,nips 2016;;ngcn: multi-scale graph convolution for semi-supervised node classification,2018;lanczosnet: multi-scale deep graph convolutional networks,iclr 2019-利用多尺度信息,将邻接矩阵s ss提升到更高的阶

how powerful are graph neural networks?,iclr 2019-研究l图神经网络对任意两个图的区分能力,并引入图同构网络,证明其与图同构的weisfeiler-lehman检验同样强大

predict then propagate: graph neural networks meet personalized pagerank,iclr 2019-利用神经网络和个性化随机游走将非线性变换与传播分离

attention-based graph neural network for semisupervised learning,2018-提出了基于注意力机制的gcn

a simple yet effective baseline for non-attribute graph classification,2018-提出了一种有效的基于节点度统计信息进行图分类的线性baseline

bootstrapped graph diffusions: exposing the power of nonlinearity,2018-结果表明,使用线性特征/标签传播步骤的模型可以从自训练策略中提升效果

label efficient semi-supervised learning via graph filtering,cvpr 2019-提出了一种广义的标签传播,并提供了一个类似谱分析的renormalization trick

graph attention networks,iclr 2018;attention-based graph neural network for semisupervised learning,2018;gaan: gated attention networks for learning on large and spatiotemporal graphs,2018;rethinking knowledge graph propagation for zero-shot learning,2018-这些基于注意力机制的模型为不同的边分配了权重,但是注意力机制也带来了内存的使用和巨大的计算开销

一篇基于图上的注意力模型的综述文章:attention models in graphs: a survey,2018

4.2 其他在图上的工作

在图上的方法可分为两类:graph embedding methods和graph laplacian regularization methods。

graph embedding methods

deepwalk:它依赖于截断的随机游走,并使用一种skip-gram来生成节点表示

deep graph infomax (dgi),2019:用非监督策略学习图的节点表示,dgi通过最大化相互信息来训练一个图形卷积编码器

5 实验结果

5.1 citation networks & social networks

表2中,可以看出sgc和gcn的性能相当,并且在citeseer数据集上比gcn高1%。性能提升的原因可能是由于sgc的参数更少较少了过拟合gcn中的过拟合的情况。

gin中就有严重的过拟合。

lnet and adalnet在引文网络上不稳定。

表3是在reddit社交网络数据集上的实验。

sgc比基于gcn的变种graphsage和fastgcn高1%。

dgi论文中表示随机初始化的dgi编码器的性能几乎与经过训练的编码器的性能相匹配;然而,这两种模型在reddit上的表现都不如sgc。这个结果可能表明,额外的权重和非线性激活在dgi编码器中是多余的。

efficiency

图3是在pubmed和reddit数据集上的效率对比图

显然,sgc是效率最高的

sgc中是预先计算的,sgc训练的时候只需要学习一个权重矩阵Θ,减少了内存的使用。

由于s通常是稀疏的,而k通常比较小,因此,可以用稀疏稠密矩阵乘法进行计算

无法在reddit上对gaan和dgi的训练时间进行基准测试,因为实验没有发布

gpu:nvidia gtx 1080 ti

在大图上由于内存要求不能进行gcn的训练。fastgcn和graphsage等方法使用采样的方法减少邻居数量来处理这个问题。deep graph infomax(iclr,2019)通过限制模型的size来解决这个问题

sgc训练的时候比使用快速采样的fastgcn快两个数量级,并且性能几乎没有损失

5.2 下游任务

使用5个下游任务来研究sgc的适应性:

text classification

semi-supervised user geolocation

relation extraction

zero-shot image classification

graph classification

text classification

(graph convolutional networks for text classification,2019)使用2层的gcn来实现了一个state-of-the-art的结果,创建了一个语料库图,该图将文档和单词都视为图中的节点。

word-word边的权值为点信息的互信息(point twise mutual information, pmi), word-document边的权值为标准化的tf-idf socre。

如表4显示,一个sgc (k = 2)在5个基准数据集上与他们的模型竞争,同时达到了83.6倍的速度。

semi-supervised user geolocation

半监督用户地理定位(semi-supervised user geolocation)根据用户发布的帖子、用户之间的关系以及少数被标记的用户,来定位用户在社交媒体上的“家”的位置。

表5显示,sgc在geotext、twitterus和twitter-world 的高速公路连接方面优于gcn,同时在twitter-world上节省了30多个小时。

relation extraction

关系抽取包括预测句子中主语和宾语之间的关系。

c-gcn采用lstm,后面接着gcn和mlp层。实验将gcn替换为sgc (k = 2)将得到的模型称为c-sgc

zero-shot image classification

zero-shot image分类包括学习一个图像分类器,不需要从测试类别中获取任何图像或标签。

gcnz使用gcn将类别名称映射到图像特征域,并查找与查询图像特征向量最相似的类别 - 表7显示,使用mlp替换gcn,然后使用sgc可以提高性能,同时将参数数量减少55%。

为了将预先训练好的glove向量映射到由resnet-50提取的视觉特征空间,需要一个mlp特征提取器。

同样,这个下游应用证明了学习图卷积滤波器是多余的。

graph classification

图分类要求模型使用图结构对图进行分类。

(how powerful are graph neural networks?,iclr 2019)从理论上证明了gcns不足以区分特定的图结构,并证明了gin更具表现力,在各种图分类数据集上获得了 state-of-the-art的结果。

将dcgcn中的gcn替换为sgc,分别获得nci1和collab数据集上的71.0%和76.2%,这与gcn相当,但远远落后于gin。

在qm8量子化学数据集上,更高级的adalnet和lnet在qm8上得到0.01mae,远远超过sgc的0.03 mae。

(*本文为 ai科技大本营转载文章,转载请联系作者)

相关阅读

上一篇:金一南丨美空袭叙利亚促成反美联盟,两虎相争为恐怖主义提供温床
下一篇:借助抗爆纳米金刚石可发现早期癌症