Inductive and Unsupervised Representation Learning on Graph Structured Objects

编程入门 行业动态 更新时间:2024-10-27 10:20:16

Inductive and Unsupervised <a href=https://www.elefans.com/category/jswz/34/1753541.html style=Representation Learning on Graph Structured Objects"/>

Inductive and Unsupervised Representation Learning on Graph Structured Objects

文章目录

    • 1 前言
    • 2 问题定义
    • 3 SEED思路
      • 3.1 Sampling
      • 3.2 Encoding
      • 3.3 Embedding Distribution
    • 4 方法的优势与局限性
      • 4.1 优势
      • 4.2 局限性

  • 论文地址:=rkem91rtDB
  • 源码:SEED-reimplementation
  • 来源:ICLR, 2020
  • 关键词:unsupervised learning, graph representation,

1 前言

该论文主要解决的是图结构数据的无监督的、inductive形式的表征问题。通常在无监督的图表征问题中,主要以重建损失为主导进行训练,但是在计算重建损失时通常要涉及到图的相似性计算,而图的相似性计算是一个十分复杂、耗时的过程,论文提出了一个通用的框架SEED(Sampling, Encoding and Embedding Distribution)用于无监督的学习图结构对象的表征。

2 问题定义

目标很简单,给定一个graph,学习它的表征。

3 SEED思路


如上图所示所示,SEED主要分为三个部分:

3.1 Sampling

从输入的图中采样出多个子图。为了使得采样到的子图更具代表性,论文中提出了一种新的采样方法 — WEAVE(random Walk with EArliest Visit timE)。该方法与通常的随机游走不一样,WEAVE是带结点访问时间戳的。

如上图所示,WEAVE的区分能力比平凡的搜集游走更强。每一个WEAVE都代表一个采样到的子图,可以用一个矩阵表示: X = [ x ( 0 ) , x ( 1 ) , ⋯ , x ( k ) ] X=\left[\mathbf{x}^{(0)}, \mathbf{x}^{(1)}, \cdots, \mathbf{x}^{(k)}\right] X=[x(0),x(1),⋯,x(k)],其中 x ( p ) = [ x a ( p ) , x t ( p ) ] \mathbf{x}^{(p)} = [\mathbf{x}_a^{(p)}, \mathbf{x}_t^{(p)}] x(p)=[xa(p)​,xt(p)​], x a ( p ) \mathbf{x}_a^{(p)} xa(p)​表示在时间 p p p时访问到的结点的特征, x t ( p ) \mathbf{x}_t^{(p)} xt(p)​表示访问到该结点时的时间向量。注意,如果访问到了已经访问过的结点则 x t ( p ) \mathbf{x}_t^{(p)} xt(p)​为最早访问时的时间。在论文中, x t ( p ) \mathbf{x}_t^{(p)} xt(p)​采用one-hot编码。

3.2 Encoding

将每一个采样到的子图编码为向量。直觉上,如果子图的表征质量好,那么就能在子图表征地基础上较好地重建子图。论文中作者采样自编码器学习子图的表征,以重建损失作为损失函数。至此, s s s个子图 { X 1 , . . . , X s } \{X_1, ..., X_s\} {X1​,...,Xs​}被表示为 s s s个向量 { z 1 , . . . , z s } \{\mathbf{z}_1, ..., \mathbf{z}_s\} {z1​,...,zs​}。

3.3 Embedding Distribution

将上一阶段获得的多个子图的表征汇集作为输入图的表征。对于两个图,它们在表征空间中的距离应该与它们的子图向量分布距离类似,因此需要找到一个好的聚集函数来保留原先的子图表征分布距离,论文中采用的是 M M D MMD MMD。
给定连个图 G , H \mathcal{G}, \mathcal{H} G,H,子图表征分别为: { z 1 , . . . , z s } \{\mathbf{z}_1, ..., \mathbf{z}_s\} {z1​,...,zs​}和 { h 1 , . . . , h s } \{\mathbf{h}_1, ..., \mathbf{h}_s\} {h1​,...,hs​},则两者间的 M M D MMD MMD为:
M M D ^ ( P G , P H ) = 1 s ( s − 1 ) ∑ i = 1 s ∑ j ≠ i s k ( z i , z j ) + 1 s ( s − 1 ) ∑ i = 1 s ∑ j ≠ i s k ( h i , h j ) − 2 s 2 ∑ i = 1 s ∑ j = 1 s k ( z i , h j ) = ∥ μ ^ G − μ ^ H ∥ 2 2 \begin{aligned} \widehat{M M D}\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)=& \frac{1}{s(s-1)} \sum_{i=1}^{s} \sum_{j \neq i}^{s} k\left(\mathbf{z}_{i}, \mathbf{z}_{j}\right)+\frac{1}{s(s-1)} \sum_{i=1}^{s} \sum_{j \neq i}^{s} k\left(\mathbf{h}_{i}, \mathbf{h}_{j}\right) \\ &-\frac{2}{s^{2}} \sum_{i=1}^{s} \sum_{j=1}^{s} k\left(\mathbf{z}_{i}, \mathbf{h}_{j}\right) \\ =&\left\|\hat{\mu}_{\mathcal{G}}-\hat{\mu}_{\mathcal{H}}\right\|_{2}^{2} \end{aligned} MMD (PG​,PH​)==​s(s−1)1​i=1∑s​j​=i∑s​k(zi​,zj​)+s(s−1)1​i=1∑s​j​=i∑s​k(hi​,hj​)−s22​i=1∑s​j=1∑s​k(zi​,hj​)∥μ^​G​−μ^​H​∥22​​
μ ^ G , μ ^ H \hat{\mu}_{\mathcal{G}}, \hat{\mu}_{\mathcal{H}} μ^​G​,μ^​H​分别表示两个图的kernel embedding,也就是最终的graph representation,分别定义为:
μ ^ G = 1 s ∑ i = 1 s ϕ ( z i ) , μ ^ H = 1 s ∑ i = 1 s ϕ ( h i ) \hat{\mu}_{\mathcal{G}}=\frac{1}{s} \sum_{i=1}^{s} \phi\left(\mathbf{z}_{i}\right), \quad \hat{\mu}_{\mathcal{H}}=\frac{1}{s} \sum_{i=1}^{s} \phi\left(\mathbf{h}_{i}\right) μ^​G​=s1​i=1∑s​ϕ(zi​),μ^​H​=s1​i=1∑s​ϕ(hi​)
其中 ϕ ( ⋅ ) \phi(\cdot) ϕ(⋅)是与核函数 k ( ⋅ , ⋅ ) k(\cdot, \cdot) k(⋅,⋅)相关的特征映射函数(与SVM中的核技巧类似,将核函数的计算转化为更简单的计算形式)。
根据核函数的选择, ϕ ( ⋅ ) \phi(\cdot) ϕ(⋅)具有不同的形式,如RBF、MLP等。为了训练 ϕ ( ⋅ ) \phi(\cdot) ϕ(⋅),文中使用如下的近似误差,其中 θ m \theta_m θm​为 ϕ ( ⋅ ) \phi(\cdot) ϕ(⋅)的参数):
J ( θ m ) = ∥ D ( P G , P H ) − M M D ^ ( P G , P H ) ∥ 2 2 J\left(\theta_{m}\right)=\left\|D\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)-\widehat{M M D}\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)\right\|_{2}^{2} J(θm​)=∥∥∥​D(PG​,PH​)−MMD (PG​,PH​)∥∥∥​22​
通过最小化上述误差,就能学习到较好的聚集函数,在最终的表征中保留子图表征的分布距离。

该论文的方法与核方法有一定的相似性。论文还证明了同构的图的WEAVE的子图分布是类似的,并且对子图的采样长度进行了证明,详细内容可以参考论文。

4 方法的优势与局限性

4.1 优势

  • 给出了无监督形式的、inductive的图结构对象表征学习方法
  • 避免了复杂的图相似性计算,以类似于核技巧的方法较好地度量了图之间地距离
  • 对相关地定理进行了证明

4.2 局限性

  • 当图地规模较大时,采样的子图也会非常大,且可能需要采样地子图数量会很大


欢迎访问我的个人博客~~~

更多推荐

Inductive and Unsupervised Representation Learning on Graph Structured Objects

本文发布于:2024-03-23 21:56:55,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1743298.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:Representation   Unsupervised   Inductive   Learning   Objects

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!