首页/新闻资讯/正文
深入解析图神经网络(GNN)原理与卷积操作:从CNN到GNN的核心技术对比

 2025年02月20日  阅读 6

摘要:小时的手在2019年开始旋转,在CNN,RNN,LSTM,GAN,GNN和CAP的潮起潮落中带来了此博客。在上一篇文章中提到参考。实际上,我个人认为理解GNN的核心问题是了解如何在图形中进行傅立叶变换。卷积是在CNN的核心操作过程中进行的,GNN也是如此。C...

小时的手在2019年开始旋转,在CNN,RNN,LSTM,GAN,GNN和CAP的潮起潮落中带来了此博客。在上一篇文章中提到参考。实际上,我个人认为理解GNN的核心问题是了解如何在图形中进行傅立叶变换。卷积是在CNN的核心操作过程中进行的,GNN也是如此。 CNN计算二维矩阵的卷积,GNN计算了图的卷积。然后,我们可以定义图的傅立叶变换和图的卷积,其介质是图形的拉普拉斯矩阵。

好的,此博客将简要介绍图形神经网络的原理,但不会设计太多的数学细节(因为博客的数学很糟糕)。通过了解图形神经网络的卷积操作,我们可以理解其过程,然后与代码合作以简单解释。

目录

拉普拉斯矩阵

对于图,其程度是其与顶点的链接的数量,对角元素是每个顶点的程度。邻接矩阵代表图中每个顶点的邻接关系。如下图所示,图的矩阵为l = d –A。

矩阵计算

实际上,有三个常用的矩阵,上述仅引入一个。

矩阵具有许多良好的特性:

矩阵是对称矩阵,可以执行特征分解。矩阵仅在中央顶点和一阶连接的顶点上具有非0元素。其余的是用于运算符和矩阵的傅立叶变换通用傅立叶变换。

传统的傅立叶变换旨在连续函数,然后对序列具有离散的傅立叶变换。那么矩阵可以用作傅立叶变换吗?本文告诉我们,是的,没问题:

神经网络图谱_图神经网络_神经网络图怎么画

l时间拉普拉斯矩阵,v是其特征向量,满足lv = \ v

L的拉普拉斯光谱分解为l = u \ u^t

然后,定义上的傅立叶变换为(f)= u^t f

促进卷积(f*h)_g = u(((u^th)\ odot(u^tf))

然后,时间域中的卷积是频域点乘法的反傅立叶变换,因此我们可以实现卷积操作。

了解拉普拉斯矩阵光谱分解

傅立叶变换的本质是将任何函数表示为几个正交函数的线性组合(由sin,cos组成)。

傅立叶变换

拉普拉斯矩阵的特征值表示频率。无法可视化空间频率的概念。信息理论告诉我们,特征值越大,与之对应的信息越多。较小的特征值是低频组件,而信息越少,可以忽略它。

在压缩图像的过程中,低频组件也将其更改为0,并且将保留高频(边缘),这为我们带来了更多信息。

在深处

图神经网络_神经网络图怎么画_神经网络图谱

在卷积总和中,需要手动设置k参数。 k具有良好且相应的权重系数(根据模型,这些特定参数将有所不同。它是在此处大致介绍的,重点是理解)。要更直观地看,k = 1是每个顶点的先前顺序的加权总和,如下图所示

k = 1

k = 2情况

GCN在每个卷积中的所有顶点上执行图形操作。

为了进一步了解数学层面GCN中的作用,让我们在本参考开始时给出链接。

好,下次见!

版权声明:本文为 “博览广文网” 原创文章,转载请附上原文出处链接及本声明;

原文链接:http://wen.bjhwtx.com/post/5010.html

标签:

博览广文网

博览广文网为所有文学爱好者、新闻爱好者、关注生活多方面内容的观众朋友提供多方位的内容呈现、提升阅读空间、填充碎片时间,开阔读者的视野、增长见识、了解民生、一个让您不出户尽知天下事的网站平台!
热门标签
关于我们
广文舒阅网—让天下读者有家可归!这里汇聚了各类优质文化信息,无论是全球热点、历史故事,还是实用百科、趣味探索,您都能轻松获取。我们希望用阅读点亮您的世界,让每一次浏览都充满收获和乐趣。
导航栏A标题
广文舒阅网
扫码关注
联系方式
全国服务热线:0755-88186625
Q Q:8705332
Email:admin@lanyu.com
地址:深圳市福田区海雅缤纷国际大厦5层501
Copyright 深圳市蓝宇科技有限公司 版权所有 备案号:京ICP备20013102号-1