C/C++教程

论文解读GCN 1st《 Deep Embedding for CUnsupervisedlustering Analysis》

本文主要是介绍论文解读GCN 1st《 Deep Embedding for CUnsupervisedlustering Analysis》,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

论文信息

  • Tittle:《Spectral Networks and Locally Connected Networks on Graphs》
  • Authors:Joan Bruna、Wojciech Zaremba、Arthur Szlam、Yann LeCun
  • Source:2014, ICLR
  • Paper:Download
  • Code:Download

Abstract

   Convolutional Neural Networks are extremely efficient architectures due to the  local translational invariance. In order to generize it , we propose two constructions, one based upon a hierarchical clustering of the domain, and another based on the spectrum of the graph Laplacian.

  CNN作用于 欧几里得数据 。 Convolutional Neural Networks (CNNs) have been extremely succesful in machine learning problems where the coordinates of the underlying data representation have a grid structure.


1 Introduction

  CNN is able to exploit several structures that play nicely together to greatly reduce the number of parameters in the system:

    1. The translation structure(平移结构,类比于 $ 1 \times n$ 的滤波器), allowing the use of filters instead of generic linear maps and hence weight sharing.
    2. The metric on the grid, allowing compactly supported filters, whose support is typically much smaller than the size of the input signals.
    3. The multiscale dyadic clustering(二元聚类) of the grid, allowing subsampling, implemented through stride convolutions and pooling.

   如果有  $n$  个网格数据,数据的维度为  $d$  ,如果使用有  $m$  的输出节点的全连接网络就需要  $n \times m$  个参数,相当于  $O\left(n^{2}\right)$  的复杂度。使用任意的滤波器(也就是 1  而非全连接网路能将参数复杂度降低到  $O(n)$ (注:重复使用一维滤波器) 。使用网格上的度量结构,也就是$ 2 $ 来构建局部连接网络也可以。而如果两种一起使用能够将复杂度降低到  $O(k \cdot S)$ (注:使用小的滤波器,但可以根据需求设置不同的滤波器数量) ,这里的  $k$  代表数据  feature map  的数量,  $S$  代表卷积核的数量,此时复杂度与  $n$  无关。最后使用网格的多尺度二元聚类,也就是 3  可以进一步降低复杂度。

  Graphs offer a natural framework to generalize the low-dimensional grid structure, and by extension the notion of convolution.    We propose two different constructions. In the first one, we show that one can extend properties (2) and (3) to general graphs, and use them to define “locally” connected and pooling layers, which require $O(n)$  parameters instead of $O(n^2)$. We term this the spatial construction. The other construction, which we call spectral construction, draws on the properties of convolutions in the Fourier domain.

   在本文中将会讨论将深度卷积应用于网络数据的方法。本文一共提供两种架构。第一种为空域架构(spatial construction),这种架构能够对网络数据应用上述 2  和  3  ,应用它们可以构建网络数据的局部连接网络,参数复杂度为  $O(n)$  而不是  $O(n^2)$  。另一种架构称为频域架构(spectral construction),能够在傅里叶域内应用卷积。频域架构对于每一个  feature map  最多需要  $O(n)$  的参数复杂度,也可以构建参数数量与  $n$  无关的架构。

    Contributions:

    • We show that from a weak geometric structure in the input domain it is possible to obtain efficient architectures using $O(n)$ parameters, that we validate on low-dimensional graph datasets.
    •  We introduce a construction using $O(1)$ parameters which we empirically verify, and we discuss its connections with an harmonic analysis problem on graphs.

2 Spatial Construction

  网络数据将由一个加权图   $G=(\Omega, W)$   来表示, $\Omega$   是一个离散的节点集合,大小为 $m$ , $W$ 是一个对称半正定矩阵,也就是加权邻接矩阵。将CNN泛化到网络数据的最直接想法是应用多尺度的、层级的局部感受野。

2.1 Locality via W

  The notion of locality can be generalized easily in the context of a graph.

  通过图上的 weight 设置  neighborhoods,定义如下:

    $N_{\delta}(j)=\left\{i \in \Omega: W_{i j}>\delta\right\} .$

  通过此方法,将参数限制在 $O(S \cdot n)$  ,其中$S$  是 average neighborhood size。

2.2 Multiresolution Analysis on Graphs

   CNNs reduce the size of the grid via pooling and subsampling layers.

   多尺度聚类( multiscale clustering):they input all the feature maps over a cluster, and output a single feature for that cluster.

   Figure 1 illustrates a multiresolution clustering of a graph with the corresponding neighborhoods.

    

  可以看到 Figure 1 中,

  • $k= 1$:
    • 原始图有  $12$  个节点(即图上的  gray node),先分成  $6$  个  neighborhood $\mathcal{N}_{1 i}$ ,使用  $6$  个  feature maps  分别作用在不同的 $  \mathcal{N}_{1 j}$  中,对每个  $  \mathcal{N}_{1 j}$   进行   cluster  得到对应的  6  个聚类中心(with color)。
  • $k=2$:
    • 然后对上述产生的  $6$  个聚类中心,先分成  $3$  个neighborhood   $\mathcal{N}_{2 i}$,  再使用  $3$  个    feature maps  得到  $3$  个聚类中心。

  图示只进行了  $2$  次。

2.3 Deep Locally Connected Networks

  本文提出的空域架构也叫做深度局部连接网络 (Deep Locally Connected Networks) 。在这 个架构中使用了网络的多尺度聚类,事实上这里的尺度可以认为是下采样的层数,在这里我们考虑 $K$ 个尺度,实际上也就是说这个架构由 $K$ 个卷积层,每个卷积层后面都有一个池化层 (也就是进行一次聚类),因此这个架构中总共有 $K$ 层,每层包括一个个卷积层和一个池化层。

  我们设置   $\Omega_{0}=\Omega$   ,也就是输入层的节点集合(可以认为是第 $0$ 层),每一层的节点集合记作   $\Omega_{k}$ ,这里 $k=1,2, \cdots, K , \Omega_{k}$  是利用   $\Omega_{k-1}$    的节点集合聚合成  $d_{k}$   个  cluster  的一个形式,因此   $d_{k}$   就表示第   $k$   层的节点个数,有 $d_{k}=\left|\Omega_{k}\right|$ 。另外定义    $\Omega_{k-1} $ 的节点的邻居节点集合的表示:

    $\mathcal{N}_{k}=\left\{\mathcal{N}_{k, i} ; i=1 \ldots d_{k-1}\right\}$

  PS:    $N_{k}$    的下标虽然为  $k$   ,但它代表的是第    $k-1$    的节点集合    $\Omega_{k-1}$    的每个节点的邻域的表示,里面的每个   $N_{k, i}$    都是一个集合。

  根据上述定义,可以定义网络的第 $k$ 层。假设  Input  是   $\Omega_{0}$   上的   real signal,以   $f_{k}$  来 代表第  $k$  层的卷积核的数量,也代表了第 $k$ 层  feature map  的数量和信号的维度。每一层都会将   $\Omega_{k-1}$   上的  $f_{k-1}$  维的信号转换成  $\Omega_{k}$  上的  $f_{k}$  维的信号。

  结果:每一层的节点数量降低,但卷积核的数量会逐层增加使得特征的维度会变化。即:

  ①空间分辨率降低 (loses spatial resolution),即空间点数减少;
  ②滤波器数目增加 (increases the number of filters),即每个点特征数   $d_{k}$   增加。

  第  $k$  层的输出  $x_{k+1}$  就被定义为:

    $x_{k+1, j}=L_{k} h\left(\sum \limits _{i=1}^{f_{k-1}} F_{k, i, j} x_{k, i}\right) \quad\left(j=1 \ldots f_{k}\right)\quad \quad\quad\quad(2.1)$

  其中:

    • 第  $k$  层的输入节点用  $x_{k}=\left(x_{k, i} ; i=1,2, \cdots, f_{k-1}\right)$  来表示,大小是一个  $d_{k-1} \times f_{k-1}$  的矩阵; 
    • $x_{k, i}$  相当于第  $k$  层的第  $i$  个  feature map 。$x_{k, i}$ 的大小为 $d_{{k-1}}\times 1$;
    • $F_{k, i, j}$  代表第  $k$  层的第  $j$  个卷积核对第  $k-1$  层的第  $i$  个 feature map 进行卷积。$F_{k, i, j}$  是一个  $d_{k-1} \times d_{k-1}$  的稀疏矩阵,矩阵的第  $m$  行的非零值都只会存在于  $N_{k, m}$  所指定的第  $m$  个节点的邻居节点位置。
    • $h$  代表非线性激活函数;
    • $L_{k}$  代表对卷积的结果进行池化操作来降低节点的数量,$L_{k}$  相当于聚类的结果,是一个  $d_{k} \times d_{k-1}$  的稀疏矩阵,每一行指示一个簇的分布;
      • 如果采用平均池化,那么  $L_{k}$ 的一个例子(  $d_{k}=3$, $d_{k-1}=6$  ) 可以是:

        $L_{k}=\left|\begin{array}{cccccc}1 & 0 & 0 & 0 & 0 & 0 \\0 & \frac{1}{2} & 0 & \frac{1}{2} & 0 & 0 \\0 & 0 & \frac{1}{3} & 0 & \frac{1}{3} & \frac{1}{3}\end{array}\right|$

   整个过程可以用下图来表示:

    

   通过以下过程构建第  $k$   层的  $W_{k}$   和  $N_{k}$ :

    ${\large  \begin{array}{l}W_{0} &=W \\A_{k}(i, j) &=\sum \limits _{s \in \Omega_{k}(i)} \sum\limits_{t \in \Omega_{k}(j)} W_{k-1}(s, t),(k \leq K) \\W_{k} &=\text { rownormalize }\left(A_{k}\right),(k \leq K) \\\mathcal{N}_{k} &=\operatorname{supp}\left(W_{k}\right) \cdot(k \leq K)\end{array}} $

  $A_{k}(i, j)$  的计算指:由于  $\Omega_{k}$  中的节点来自  $\Omega_{k-1}$  中的节点的聚类,所以  $i, j$  之间的权重是  $i$  和  $j$  对应的聚类之前的  $\Omega_{k-1}$  中节点之间所有权重的累加。  $\Omega_{k}$  是对  $\Omega_{k-1}$  的聚类,图聚类的方法是多种多样的,可以自行选取,这里的方法是采用  $W_{k}$  的  $\epsilon$  - covering,使 用核函数  $K$  的  $\Omega$  的  $\epsilon$  - covering是一个划分  $P=\left\{P_{1}, P_{2}, \cdots, P_{n}\right\} $ ,满足:

    $\sup _{n} \sup _{x, x^{\prime} \in P_{n}} K\left(x, x^{\prime}\right) \geqslant \epsilon$

  以   $S_{k} $  代表  $\mathcal{N}_{k}$  中的平均节点数量,那么第   $k$   层用来学习的参数量为:

    $O\left(S_{k} \cdot\left|\Omega_{k}\right| \cdot f_{k} \cdot f_{k-1}\right)=O(n)$

  实践中通常有   $S_{k} \cdot\left|\Omega_{k}\right| \approx \alpha \cdot\left|\Omega_{k-1}\right|$,$ \alpha$   是下采样因子,满足  $\alpha \in(1,4) $。

  这种架构的优点在于不需要很强的 regularity assumptions on the graph,只需要图具备低维邻域结构即可,甚至不需要很好的 global embedding。但是缺点在于没办法进行参数共享,对于每一层的每一个节点都要有单独的参数进行卷积而不能像CNN那样使用同一个卷积核在数据网格上进行平移。


3 Spectral Construction

  The global structure of the graph can be exploited with the spectrum of its graph-Laplacian to generalize the convolution operator.

3.1 Harmonic Analysis on Weighted Graphs

3.1.1 Laplacian matrix

  先介绍几种  Laplacian matrix:

  ① combinatorial Laplacian,组合拉普拉斯矩阵:

    $L=D-W$

  其中的元素为:

    $L_{i, j}=\left\{\begin{array}{l}d_{i}\quad &i=j \\-w_{i j}\quad& i \neq j \text { and } v_{i} \text { is adjacent to } v_{j} \\0 \quad&\text { otherwise }\end{array}\right.$

  ② Symmetric normalized Laplacian,对称归一化的拉普拉斯矩阵:

    $L^{s y s}=D^{-1 / 2} L D^{-1 / 2}=I-D^{-1 / 2} W D^{-1 / 2}$

  其中的元素为:

    $L_{i, j}^{s y s}=\left\{\begin{array}{l}1 \quad&i=j \text { and } d_{i} \neq 0 \\-\frac{w_{i j}}{\sqrt{d_{i} d_{j}}}\quad &i \neq j \text { and } v_{i} \text { is adjacent to } v_{j} \\0 \quad&\text { otherwise }\end{array}\right.$

  ③ Random walk normalized Laplacian,随机游走归一化拉普拉斯矩阵:

    $L^{r w}=D^{-1} L=I-D^{-1} W$

  其中的元素为:

    $L_{i, j}^{r w}=\left\{\begin{array}{l}1\quad &i=j \text { and } d_{i} \neq 0 \\-\frac{w_{i j}}{d_{i}}\quad&i \neq j \text { and } v_{i} \text { is adjacent to } v_{j} \\0\quad &\text { otherwise }\end{array}\right.$

  为方便,本文使用的是 ① combinatorial Laplacian 。

3.1.2 Introduction of smoothness function

  对于一个固定的加权邻接矩阵  $W$  ,不同的节点信号列向量  $x \in \mathbb{R}^{m}$  (也就是说网络有  $m$  个节点) 有不同的平滑性 (smoothness) 度量  ,在节点  $i$  处的平滑性度量  $\|\nabla x\|_{W}^{2}(i)$ 为:

    $\|\nabla x\|_{W}^{2}(i)=\sum \limits _{i} W_{i j}[x(i)-x(j)]^{2}$

   所有  node  的平滑性度量为: 

    $\|\nabla x\|_{W}^{2}=\sum \limits _{i} \sum\limits_{j} w_{i j}[x(i)-x(j)]^{2}$

  其实   $\|\nabla x\|_{W}^{2}$ 就是   $x^{T} L x$ ,可以参考《图神经网络基础二:谱图理论》。
  根据上面的公式可以得出最平滑的信号   $x$    ,对应于特征值为 $0$ 时,此刻的  $x$  其实是一个归一化(前文图神经网络没有归一化,这里归一化并不影响)的全 $1$ 的特征向量  $v_0$  为:

    $v_{0}=\underset{x \in \mathbb{R}^{m} \  \|x\|=1}{\arg \min }\|\nabla _x\|_{W}^{2}=(1 / \sqrt{m}) 1_{m}$

  事实上  $\mathbb{R}^{m}$  空间中最平滑的  $m$  个相互正交的单位向量其实就是   $L$  的特征向量(谱分解得出): 

     $v_{i}=\underset{x \in \mathbb{R}^{m}\  \  \|x\|=1\ \ \  x \perp\left\{v_{0}, \ldots, v_{i-1}\right\}}{arg min} \|\nabla x\|_{W}^{2}$

  每个 eigenvector $v_{i}$ 的平滑性度量的值其实就是特征值  $ \lambda_{i}$注意  $x \text { in }\left[v_{0}, \ldots v_{m-1}\right]$

  拉普拉斯矩阵的谱分解为 $L=V \Lambda V^{-1}=V \Lambda V^{T}$ ,其中  $\Lambda$  为特征值构成的对角矩阵, $V$  为特征向量构成的正交矩阵, $V$  的每一列都是一个特征向量,通过计算  $v_{i}^{T} L v_{i} $ 就可得到对应的特征值  $\lambda_{i} $ ,因此最平滑的信号向量就是特征值最小的特征向量,拉普拉斯矩阵的特征值就代表特征向量的平滑度。

  上面提到的一组特征向量其实就是  $\mathbb{R}^{m}$   空间的一组基,前面的文章里说过图傅里叶变换其实就是将信号向量投影到拉普拉斯矩阵的各个特征向量上:

    $F\left(\lambda_{k}\right)=\sum \limits _{i=1}^{m} x(i) v_{k}(i)$

  特征值的大小表示平滑程度,它对应传统傅里叶变换中的频率,频率高表示短时间内变动多,和这里的相邻节点变动大(变动越大越不平滑)能对应起来。因此图傅里叶变换就是在将一个图信号分解到不同平滑程度的图信号上,就像传统傅里叶变换将函数分解到不同频率的函数上一样。

  一个任意信号向量   $x$   分解到所有的特征向量上对应的每个系数用  $a_{i} \quad\left(a_{i}=F\left(\lambda_{i}\right)\right.$  表示 ,这些系数也就是图傅里叶变换后的系数) 表示,  $x$  可以表示为 $ \sum \limits_{i=1}^{m} a_{i} v_{i}$  ,也就是  $V a$  ,那么  $x$  的平滑性度量的值可以用这些系数和特征值表示:

    $\begin{array}{l}x^{T} L x&=(V a)^{T} L V a \\&=a^{T} V^{T} L V a \\&=a^{T} V^{T} V \Lambda V^{T} V a \\&=a^{T} I \Lambda I a \\&=a^{T} \Lambda a \\&=\sum \limits _{i=1}^{m} a_{i}^{2} \lambda_{i}\end{array}$

3.2 Extending Convolutions via the Laplacian Spectrum

3.2.1 卷积定理

  首先回顾一下卷积定理:

  两个函数  $f$  和    $g$  进行卷积可以应用卷积定理,用公式表达卷积定理就是:

    $F(f * g)=F(f) \cdot F(g)$

  对于网络来说,直接进行卷积是困难的,因为网络不具备图像那样规则的网格结构,因此考虑应用图傅里叶变换将网络的空域信息映射到频域来应用卷积定理完成卷积操作。

  应用卷积定理可以在频域上进行图的卷积操作,具体的方法是将滤波器  $h$  和图信号  $x$  都通过图傅里叶变换转换到频域然后计算转换后的结果的乘积(哈达玛积,也就是向量对应元素相乘),然后将相乘的结果再通过图傅里叶逆变换转换回空域,整个过程如下:

    $\begin{array}{l}h * x&=F^{-1}\{F\{h\} \cdot F\{x\}\} \\&=F^{-1}\{\widehat{h} \cdot \widehat{x}\} \\&=F^{-1}\left\{\widehat{h} \cdot V^{T} x\right\} \\&=F^{-1}\left\{\operatorname{diag}\left[\widehat{h}_{1}, \cdots, \widehat{h}_{m}\right] V^{T} x\right\} \\&=\operatorname{Vdiag}\left[\widehat{h}_{1}, \cdots, \widehat{h}_{m}\right] V^{T} x\end{array}$

  这里不妨定义  $V$  是按特征值排序的  graph Laplacian $L$,将   $ \widehat{h}$   组织成对角矩阵  $ \operatorname{diag}\left[\widehat{h}_{1}, \cdots, \widehat{h}_{m}\right], \widehat{h}_{1}, \cdots, \widehat{h}_{m}  $  也就是神经网络要学习的参数。

3.2.2 频域架构

  在这里我们仍然使用    $k$   来代表网络的第   $k$   层,  $k=1,2, \cdots, K , f_{k} $   仍然代表卷积核的数 量。这种架构的卷积的过程主要依照卷积定理,首先来描述卷积的过程,之后再描述如何进行下采样,因此现在假设第   $k$   层和第   $k+1$   层的节点数都是  $|\Omega| $ ,那么第   $k$  层的输入  $x_{k}$   就 是一个  $|\Omega| \times f_{k-1}$  的矩阵,输出  $x_{k+1}$  就是一个  $|\Omega| \times f_{k} $  的矩阵。第  $k$  层的计算过程可以 表示为:

    $x_{k+1, j}=h\left(V \sum \limits_{i=1}^{f_{k-1}} F_{k, i, j} V^{T} x_{k, i}\right) \quad\left(j=1,2, \cdots, f_{k}\right)$

  这里的   $x_{k, i} $  仍然相当于第   $i$   个  feature map  的信号。  $F_{k, i, j}$   也就是第   $j $  个卷积核中对第   $i$   个 feature map进行卷积的部分,每一个   $ F_{k, i, j}$   都是一个对角矩阵,其实就是前面的   $\operatorname{diag}\left[\widehat{h}_{1}, \cdots, \widehat{h}_{m}\right]  $  ,这里之所以有一个连加号是因为要将多个  feature map  的结果累加起 来,  $h $   仍然表示非线性激活,另外这里的  $V $   的每一列的特征向量是按照特征值的大小依次排 列的 (降序)。

  通常只有拉普拉斯矩阵的前    $d$   个特征向量是有意义的,因为后面的特征向量对应的特征值比较小,特征向量非常的平滑,因此在实际中可以取拉普拉斯矩阵的前  $d$   列构成的矩阵  $V_{d}$  代替  $V$  ,这个过程就相当于频域架构的下采样的过程,这里的  $d$  就相当于空域架构中的  $d_{k}$  ,每 一层可以取不同的值。按照目前这种架构所需的参数复杂度为  $f_{k-1} \cdot f_{k} \cdot d=O(|\Omega|) $ 。


4 Numerical Experiments

  本文中提出的两种架构在两个数据集上进行了实验验证效果。具体实验设置参看原论文,这里不做赘述。

4.1 Subsampled MNIST

  这个数据集是从  MNIST  数据集的每张图片(  $28 \times 28$)上采样  $400$  个样本点构建图。实验样本如下图:

    

   实验结果如下图所示:

    

4.2  MNIST on the sphere

  这个数据集将MNIST数据集中的样本提升到3维空间中。实验样本如下图:

    

   实验结果如下图所示:

    


Reference

  图神经网络基础目录:

  1、《图神经网络基础一:傅里叶级数与傅里叶变换》

  2、《图神经网络基础二——谱图理论》

『总结不易,加个关注呗!』

 

 

 

  

这篇关于论文解读GCN 1st《 Deep Embedding for CUnsupervisedlustering Analysis》的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!