小时的手在2019年开始旋转,在CNN,RNN,LSTM,GAN,GNN和CAP的潮起潮落中带来了此博客。在上一篇文章中提到参考。实际上,我个人认为理解GNN的核心问题是了解如何在图形中进行傅立叶变换。卷积是在CNN的核心操作过程中进行的,GNN也是如此。 CNN计算二维矩阵的卷积,GNN计算了图的卷积。然后,我们可以定义图的傅立叶变换和图的卷积,其介质是图形的拉普拉斯矩阵。
好的,此博客将简要介绍图形神经网络的原理,但不会设计太多的数学细节(因为博客的数学很糟糕)。通过了解图形神经网络的卷积操作,我们可以理解其过程,然后与代码合作以简单解释。
目录
拉普拉斯矩阵
对于图,其程度是其与顶点的链接的数量,对角元素是每个顶点的程度。邻接矩阵代表图中每个顶点的邻接关系。如下图所示,图的矩阵为l = d –A。
矩阵计算
实际上,有三个常用的矩阵,上述仅引入一个。
矩阵具有许多良好的特性:
矩阵是对称矩阵,可以执行特征分解。矩阵仅在中央顶点和一阶连接的顶点上具有非0元素。其余的是用于运算符和矩阵的傅立叶变换通用傅立叶变换。
传统的傅立叶变换旨在连续函数,然后对序列具有离散的傅立叶变换。那么矩阵可以用作傅立叶变换吗?本文告诉我们,是的,没问题:
l时间拉普拉斯矩阵,v是其特征向量,满足lv = \ v
L的拉普拉斯光谱分解为l = u \ u^t
然后,定义上的傅立叶变换为(f)= u^t f
促进卷积(f*h)_g = u(((u^th)\ odot(u^tf))
然后,时间域中的卷积是频域点乘法的反傅立叶变换,因此我们可以实现卷积操作。
了解拉普拉斯矩阵光谱分解
傅立叶变换的本质是将任何函数表示为几个正交函数的线性组合(由sin,cos组成)。
傅立叶变换
拉普拉斯矩阵的特征值表示频率。无法可视化空间频率的概念。信息理论告诉我们,特征值越大,与之对应的信息越多。较小的特征值是低频组件,而信息越少,可以忽略它。
在压缩图像的过程中,低频组件也将其更改为0,并且将保留高频(边缘),这为我们带来了更多信息。
在深处
在卷积总和中,需要手动设置k参数。 k具有良好且相应的权重系数(根据模型,这些特定参数将有所不同。它是在此处大致介绍的,重点是理解)。要更直观地看,k = 1是每个顶点的先前顺序的加权总和,如下图所示
k = 1
k = 2情况
GCN在每个卷积中的所有顶点上执行图形操作。
为了进一步了解数学层面GCN中的作用,让我们在本参考开始时给出链接。
好,下次见!
版权声明:本文为 “博览广文网” 原创文章,转载请附上原文出处链接及本声明;
工作时间:8:00-18:00
客服电话
0755-88186625
电子邮件
admin@lanyu.com
扫码二维码
获取最新动态