图卷积网络入门(GCN) (9)

[公式]

最后我们再左乘

[公式]

进行逆变换:

[公式]

这里,我们不写成

[公式]

的主要原因在于,我们可以将其与深度学习相结合,在 GCN 中我们的卷积核是可训练并且参数共享的,所以在此我们可以直接将

[公式]

写成

[公式]

,这个便是深度学习中的可学习参数。

3. GCN-1(Spectral GNN)

第一代的卷积神经网络也就是刚刚我们给出的公式:

[公式]

这和论文中给出的公式是一样的:

[公式]

我们也称之为 Spectral GNN。

这边补充一点,在这篇论文中,作者还给出了一个基于空域的「深度局部连接网络」(Deep Locally Connected Networks),我们可以简单看一下:

img

每一层变换定义为:

[公式]

其中,

[公式]

表示第 k 第 i 个节点;

[公式]

表示第 k 层节点 i 和节点 j 的权值,考虑局部邻居;

[公式]

表示卷积运算;

[公式]

表示第 k 层的池化操作。也就是说每个节点都是由其邻居和自身卷积池化得到。

虽然看起来很简单,但是优点在于它不需要很强的前提假设,其只需要网络具有局部邻域结构,甚至不需要很好的 Embedding 向量。

但这种结构下有一个很大的缺点:「没有办法实现共享参数」

作者针对这种问题提出了我们所看到第一代图卷积神经网络。

4. GCN-2(ChebNet)

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zgwdzd.html