admin管理员组文章数量:1643328
图神经网络之GCN
- 写在前面
- GCN VS 传统 CNN (Convolution 网络)
- (1) 导出对于图像的像素点来说,它的周围像素点数量其实是固定的;
- (2) 导出但是对于图而言,节点的邻居数量是不固定的。![万物皆可图](https://i-blog.csdnimg/blog_migrate/6f003d7d1b68a065d8fdbca9f69dff8c.jpeg#pic_center)
- GCN 理论
- (1)拉普拉斯矩阵是对称矩阵可以进行谱分解(特征分解)
- (2)拉普拉斯矩阵只在中心顶点和一阶相连的顶点上(1-hop neighbor)有非0元素,其余之处均为0)
- (3)通过拉普拉斯算子与拉普拉斯矩阵进行类比
写在前面
为什么要参加此次图神经网络7天培训营?之前报名参加了上期图像分割7日打卡营的课程,课程的安排由浅及,包括如何构建数据集、FCN等模型的构建,以及实战项目。专业的教师团队,能够带着像我这样的小白进行现场手撸代码。这次的课程虽然没有一点图神经网络基础,但是老师的详细耐心讲解也让我收获颇丰。
GCN VS 传统 CNN (Convolution 网络)
传统 Convolution 网络适用于常见的文本,图像这种规则的数据结构。然而现实生活场景中信息之间的结构大多数是不规则的,如用户购买商品这样一种复杂的结构传统的网络不再适用。而图像上的卷积操作,与图结构上的卷积操作,最大的一个区别就在于:
(1) 导出对于图像的像素点来说,它的周围像素点数量其实是固定的;
(2) 导出但是对于图而言,节点的邻居数量是不固定的。
在图像上的二维卷积,其实质就是卷积核在二维图像滑窗操作,将卷积核的每个元素与被卷积图像对应位置相乘,再求和,得到一个新的结果。
GCN 理论
论文链接: link.
理论公式中各项的意义。
定义的叫Symmetric normalized Laplacian 拉普拉斯矩阵。很多GCN的论文中应用的是这种拉普拉斯矩阵。这个公式其实体现了:一个节点的度越大,那么它所包含的信息量就越小,从而对应的权值也就越小。图卷积网络将邻接矩阵的两边分别乘上了度矩阵,相当于给这个边加了权重。其实就是利用节点度的不同来调整信息量的大小。课堂上老师关于 边上的源节点,往目标节点发送特征——Send 以及目标节点对收到的特征进行聚合——Recv。进行了详细的介绍,在此不在赘述。详见课程地址链接: 百度Aistudio。但是老师关于为什么要用这种拉普拉斯矩阵,老师没有进行讲解,GCN的核心基于拉普拉斯矩阵的谱分解,文献中对于这部分内容没有讲解太多,初学者可能会遇到不少误区。课后自己阅读相关文章有了自己的理解
(1)拉普拉斯矩阵是对称矩阵可以进行谱分解(特征分解)
(2)拉普拉斯矩阵只在中心顶点和一阶相连的顶点上(1-hop neighbor)有非0元素,其余之处均为0)
(3)通过拉普拉斯算子与拉普拉斯矩阵进行类比
版权声明:本文标题:图神经网络之GCN 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.elefans.com/dongtai/1729357692a1198436.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论