小言_互联网的博客

图卷积神经网络GCN、GAT的原理及Pytorch实现

1765人阅读  评论(0)

目录

一、前言

二、图的概念

三、GNN图神经网络

四、GNN与CNN、RNN的区别

五、GNN原理

5.1 邻接矩阵

5.2 聚合操作

5.3 多层迭代

六、GCN图卷集神经网络

七、GCN的Pytorch实现

7.1 数据集介绍

7.2 代码详解

7.3 代码运行结果

八、GAT 图注意力网络 Graph Attention Network

8.1 引入Attention机制

8.2 采用Multi-Head Attention

8.3 代码实现


一、前言

ICLR作为机器学习方向的顶会,最近看了ICLR2023 Openreview的论文投稿分析,通过2022和2023年论文关键词、标题高频词等信息的可视化比较。根据前十的关键词频率排名频率来看,基本上和去年保持一致,大火的领域依旧大火。但是可以明显看到前五名关键词的频率差距逐渐减少。 有意思的是representation learning这一关键词终于又重回前三,再次为「国际学习表征会议」(ICLR)正名。graph neural network这一关键词则是掉了一名,与representation learning交换了位置,但相比于去年的频率仍然火爆。GCN作为GNN的变种,依然是一个发论文的热门。

Keyword 2022 2023
reinforcement learning 1 1
deep learning 2 2
representation learning 4 3
graph neural network 3 4
transformer 5 5
federate learning 7 6
self-supervised learning 6 7
contrastive learning 10 8
robustness 9 9
generative model 8 10

从排名变化上来看,尽管graph neural network在关键词频率排名降低了一名,但是在标题中graph却涨了一名。

Title 2022 2023
representation 1 1
graph 3 2
data 6 3
reinforcement 2 4
transformer 7 5
training 5 6
image 10 7
efficient 9 8
language 15 9
federate 14 10

二、图的概念

在讨论GNN之前,我们先来了解一下什么是。在计算机科学中,图是由节点和边两部分组成的一种数据结构。图G可以通过节点集合V和它包含的边E来进行描述。如下图所示:

三、GNN图神经网络

GNN全称----图神经网络,它是一种直接作用于图结构上的神经网络。我们可以把图中的每一个节点 V 当作个体对象,而每一条边 E 当作个体与个体间的某种联系,所有节点组成的关系网就是最后的图 U。

二元组的定义
图G是一个有序二元组(V,E),其中V称为顶集(Vertices Set),E称为边集(Edges set),E与V不相交。它们亦可写成V(G)和E(G)。
E的元素都是二元组,用(x,y)表示,其中x,y∈V。

三元组的定义
图G是指一个三元组(V,E,I),其中V称为顶集,E称为边集,E与V不相交;I称为关联函数,I将E中的每一个元素映射到 。如果e被映射到(u,v),那么称边e连接顶点u,v,而u,v则称作e的端点,u,v此时关于e相邻。同时,若两条边i,j有一个公共顶点u,则称i,j关于u相邻。

我们利用图神经网络的目的就是整合特征

GNN的主要目的就是用图结构提取特征,最终是做节点分类还是关联预测由我们自己决定。

四、GNN与CNN、RNN的区别

都是提取特征的神经网络,那为什么要利用图模型来提取呢?CNN的卷积和RNN的递归方式不行吗?
答案还真不行,或者说十分麻烦。 

因为GNN面向的输入对象其实都是结构不规则、不固定的数据结构,而CNN面向的图像数据和RNN面向的文本数据的格式都是固定的,所以自然不能混为一谈。因此,面对本身结构、彼此关系都不固定的节点特征,必须需要借助图结构来表征它们的内在联系。

五、GNN原理

5.1 邻接矩阵

首先引入邻接矩阵(Adjacency Matrix)的概念,它来表示节点与节点间的连接关系,即Edge的关系,矩阵的具体样式如下图所示:

5.2 聚合操作

GNN的输入一般是每个节点的起始特征向量和表示节点间关系的邻接矩阵,有了这两个输入信息,接下来就是聚合操作了。所谓的聚合,其实就是将周边与节点 Vi 有关联的节点{Va , Vb , . . .}加权到Vi上,当作一次特征更新。同理,对图中的每个节点进行聚合操作,更新所有图节点的特征。

聚合操作的方式多种多样,可根据任务的不同自由选择,如下图所示:

当然对这个图节点进行完了一次聚合操作后,还需要再进行一波 w 的加权,这里的 w 需要网络自己学习。

5.3 多层迭代

CNN,RNN都可以有多个层,那么GNN也当然可以。一次图节点聚合操作与 w ww 加权,可以理解为一层,后面再重复进行聚合、加权,就是多层迭代了。一般GNN只要3~5层即可,所以训练GNN对算力要求很低。如下图所示:


六、GCN图卷集神经网络

论文:Semi-Supervised Classification with Graph Convolutional Networks(ICLR2017)

https://arxiv.org/abs/1609.02907

GCN,图卷积神经网络,实际上跟CNN的作用一样,就是一个特征提取器,只不过它的对象是图数据。GCN精妙地设计了一种从图数据中提取特征的方法,从而让我们可以使用这些特征去对图数据进行节点分类(node classification)、图分类(graph classification)、边预测(link prediction),还可以顺便得到图的嵌入表示(graph embedding),可见用途广泛。因此现在人们脑洞大开,让GCN到各个领域中发光发热。

GCN的核心部分是什么样子:

假设我们手头有一批图数据,其中有N个节点(node),每个节点都有自己的特征,我们设这些节点的特征组成一个N×D维的矩阵X,然后各个节点之间的关系也会形成一个N×N维的矩阵A,也称为邻接矩阵(adjacency matrix)。X和A便是我们模型的输入。

如下图:

Labeled graph(标签图),图的路径和节点标签

Degree matrix(度矩阵) ,每个节点的度,即与每个节点连接的节点数量

Adjacency matrix(邻接矩阵),每个节点连接的节点位置

Laplacian matrix(拉普拉斯矩阵),类比离散拉普拉斯算子定义图上拉普拉斯算子为节点与邻居节点特征信息f差异的和

L = D - A

GCN也是一个神经网络层,它的层与层之间的传播方式是:

这个公式中: 

  • A波浪=A+I,I是单位矩阵
  • D波浪是A波浪的度矩阵(degree matrix),公式为
  • H是每一层的特征,对于输入层的话,H就是X
  • σ是非线性激活函数

我们先不用考虑为什么要这样去设计一个公式。我们现在只用知道:

这个部分,是可以事先算好的,因为D波浪由A计算而来,而A是我们的输入之一。

所以对于不需要去了解数学原理、只想应用GCN来解决实际问题的人来说,你只用知道:哦,这个GCN设计了一个牛逼的公式,用这个公式就可以很好地提取图的特征。这就够了,毕竟不是什么事情都需要知道内部原理,这是根据需求决定的。

为了直观理解,我们用论文中的一幅图:

上图中的GCN输入一个图,通过若干层GCN每个node的特征从X变成了Z,但是,无论中间有多少层,node之间的连接关系,即A,都是共享的。

假设我们构造一个两层的GCN,激活函数分别采用ReLU和Softmax,则整体的正向传播的公式为:

最后,我们针对所有带标签的节点计算cross entropy损失函数: 

就可以训练一个node classification的模型了。由于即使只有很少的node有标签也能训练,作者称他们的方法为半监督分类。

当然,你也可以用这个方法去做graph classification、link prediction,只是把损失函数给变化一下即可。

最终的层特征传播公式:

因为即使不训练,完全使用随机初始化的参数W,GCN提取出来的特征就以及十分优秀了!这跟CNN不训练是完全不一样的,后者不训练是根本得不到什么有效特征的。

我们看论文原文:

然后作者做了一个实验,使用一个俱乐部会员的关系网络,使用随机初始化的GCN进行特征提取,得到各个node的embedding,然后可视化

可以发现,在原数据中同类别的node,经过GCN的提取出的embedding,已经在空间上自动聚类了。而这种聚类结果,可以和DeepWalk、node2vec这种经过复杂训练得到的node embedding的效果媲美了。

说的夸张一点,比赛还没开始,GCN就已经在终点了。还没训练就已经效果这么好,那给少量的标注信息,GCN的效果就会更加出色。

其他关于GCN的点滴:

  1. 对于很多网络,我们可能没有节点的特征,这个时候可以使用GCN吗?答案是可以的,如论文中作者对那个俱乐部网络,采用的方法就是用单位矩阵 I 替换特征矩阵 X

  2. 我没有任何的节点类别的标注,或者什么其他的标注信息,可以使用GCN吗?当然,就如前面讲的,不训练的GCN,也可以用来提取graph embedding,而且效果还不错。

  3. GCN网络的层数多少比较好?论文的作者做过GCN网络深度的对比研究,在他们的实验中发现,GCN层数不宜多,2-3层的效果就很好了。

七、GCN的Pytorch实现

7.1 数据集介绍

1. 数据集结构
论文中所使用的数据集合是Cora数据集下载地址https://linqs-data.soe.ucsc.edu/public/lbc/cora.tgz

总共有三部分构成:cora.content cora.cites 和README。

README: 对数据集内容的描述;

cora.content: 里面包含有每一篇论文各自独立的信息;

31336   0  0  0  0  0  0  0  0  0  0  0  0  0   ... Neural_Networks
1061127 0  0  0  0  0  0  0  0  0  0  0  0  1   ... Rule_Learning

 ......

该文件总共包含2078行,每一行代表一篇论文,由论文编号、论文词向量(1433维)和论文的类别三个部分组成

cora.cites: 里面包含有各论文之间的相互引用记录

该文件总共包含5429行,每一行是两篇论文的编号,表示右边的论文引用左边的论文。

35  1033
35 103482
35 103515
35 1050679
35 1103960
35 1103985
35 1109199
35 1112911
35 1113438
35 1113831
35 1114331
35 1117476

2. 数据集内容分析
该数据集总共有2078个样本,而且每个样本都为一篇论文。根据README可知,所有的论文被分为了7个类别,分别为:

基于案列的论文                 Case_Based

基于遗传算法的论文          Genetic_Algorithms

基于神经网络的论文          Neural_Networks

基于概率方法的论文          Probabilistic_Methods

基于强化学习的论文          Reinforcement_Learning

基于规则学习的论文          Rule_Learning

理论描述类的论文              Theory

此外,为了区分论文的类别,使用一个1433维的词向量,对每一篇论文进行描述,该向量的每个元素都为一个词语是否在论文中出现,如果出现则为“1”,否则为“0”。

3. 数据流变化

(1) idx_features_labels (数据包含id,features和labels,维度为2708*1433)


  
  1. idx_features_labels = np.genfromtxt( "{}{}.content". format(path, dataset),
  2. dtype=np.dtype( str))

为content里面的内容,包含idx(论文id),features(论文词向量表示),labels(论文标签)

(2) features(节点的特征,维度为 2708 * 1433,类型为 np.ndarray,稀疏矩阵样式为行列,值)

features = sp.csr_matrix(idx_features_labels[:, 1:-1], dtype=np.float32)

(3)  labels(节点的标签,维度为2708*7,总共包括7个类别,类型为 np.ndarray)

labels = encode_onehot(idx_features_labels[:, -1])

构建图

(4) idx (节点的id,维度为2708*1)

idx = np.array(idx_features_labels[:, 0], dtype=np.int32)

(5) idx_map (对每个id进行编号,dict:2708)

idx_map = {j: i for i, j in enumerate(idx)}

{31336: 0, 1061127: 1, 1106406: 2, 13195: 3, 37879: 4, 1126012: 5, 1107140: 6, 1102850: 7, 31349: 8, 1106418: 9, 1123188: 10, 1128990: 11, 109323: 12, 217139: 13, 31353: 14, 32083: 15, 1126029: 16, 1118017: 17, 49482: 18, 753265: 19, 249858: 20, 1113739: 21, 48766: 22, 646195: 23, 1126050: 24, 59626: 25, 340299: 26, 354004: 27, 242637: 28, 1106492: 29, 74975: 30, 1152272: 31, 100701: 32, 66982: 33, 13960: 34, 13966: 35, 66990: 36, 182093: 37, 182094: 38, 13972: 39, 13982: 40, 16819: 41, 273152: 42, 237521: 43, 1153703: 44, 32872: 45, 284025: 46, 218666: 47, 16843: 48, 1153724: 49, 1153728: 50, 158098: 51, 8699: 52, 1134865: 53, 28456: 54, 248425: 55, 1112319: 56, 28471: 57, 175548: 58, 696345: 59, 28485: 60, 1139195: 61, 35778: 62, 28491: 63, 310530: 64, 1153784: 65, 1481: 66, 1153786: 67, 13212: 68, 1111614: 69, 5055: 70, 4329: 71, 330148: 72, 1105062: 73, 4330: 74, 5062: 75, 4335: 76, 158812: 77, 40124: 78, 1103610: 79, 688361: 80, 302545: 81, 20534: 82, 1031453: 83, 5086: 84, 193742: 85, 58268: 86, 424: 87, 40151: 88, 636098: 89, 260121: 90, 950052: 91, 434: 92, 1131270: 93, 1131274: 94, 1131277: 95, 1110947: 96, 662279: 97, 1139928: 98, 153063: 99... 

(6) edges_unordered(构建节点间的连接信息,维度为5429*2)


  
  1. edges_unordered = np.genfromtxt( "{}{}.cites". format(path, dataset),
  2. dtype=np.int32)

(7) edges(根据 idx_map和edge_undered构建边的信息,维度为5429*2)


  
  1. edges = np.array( list( map(idx_map.get, edges_unordered.flatten())),
  2. dtype=np.int32).reshape(edges_unordered.shape)
map函数会根据提供的函数对指定序列做映射,flatten()函数就是降到一维 

(备注:163对应cora.cites文件的第一列的第一个编号,402对应cora.cites文件中的第二列的第一个编号)

(8) adj (构建邻接矩阵,维度为2708*2708)


  
  1. adj = sp.coo_matrix((np.ones(edges.shape[ 0]), (edges[:, 0], edges[:, 1])),
  2. shape=(labels.shape[ 0], labels.shape[ 0]),
  3. dtype=np.float32)


  
  1. # build symmetric adjacency matrix
  2. adj = adj + adj.T.multiply(adj.T > adj) - adj.multiply(adj.T > adj)

(9) 特征归一化函数


  
  1. #特征归一化函数
  2. # 归一化函数实现的方式:对传入特征矩阵的每一行分别求和,取到数后就是每一行非零元素归一化的值,然后与传入特征矩阵进行点乘
  3. def normalize( mx):
  4. """Row-normalize sparse matrix""" #对稀疏矩阵进行正则化处理
  5. rowsum = np.array(mx. sum( 1)) #会得到一个(2708,1)的矩阵
  6. r_inv = np.power(rowsum, - 1).flatten() #数组元素求-1次方,得到(2708,)的元组
  7. # 在计算倒数的时候存在一个问题,如果原来的值为0,则其倒数为无穷大,因此需要对r_inv中无穷大的值进行修正,更改为0
  8. r_inv[np.isinf(r_inv)] = 0.
  9. r_mat_inv = sp.diags(r_inv)
  10. mx = r_mat_inv.dot(mx)
  11. return mx
features = normalize(features)

adj = normalize(adj + sp.eye(adj.shape[0]))

7.2 代码详解

代码总览(后面会上传到github上)

1. utils.py


  
  1. import numpy as np
  2. import scipy.sparse as sp
  3. import torch
  4. #特征独热码处理
  5. def encode_onehot( labels):
  6. # 将所有的标签整合成一个不重复的列表
  7. classes = set(labels) # set() 函数创建一个无序不重复元素集
  8. '''enumerate()函数生成序列,带有索引i和值c。
  9. 这一句将string类型的label变为int类型的label,建立映射关系
  10. np.identity(len(classes)) 为创建一个classes的单位矩阵
  11. 创建一个字典,索引为 label, 值为独热码向量(就是之前生成的矩阵中的某一行)'''
  12. classes_dict = {c: np.identity( len(classes))[i, :] for i, c in
  13. enumerate(classes)}
  14. # 为所有的标签生成相应的独热码
  15. # map() 会根据提供的函数对指定序列做映射。
  16. # 这一句将string类型的label替换为int类型的label
  17. labels_onehot = np.array( list( map(classes_dict.get, labels)),
  18. dtype=np.int32)
  19. return labels_onehot
  20. #数据加载和处理
  21. def load_data( path="../data/cora/", dataset="cora"):
  22. """Load citation network dataset (cora only for now)"""
  23. print( 'Loading {} dataset...'. format(dataset))
  24. #数据包含id,features和labels
  25. idx_features_labels = np.genfromtxt( "{}{}.content". format(path, dataset),
  26. dtype=np.dtype( str))
  27. #节点的特征,维度为 2708 * 1433,类型为 np.ndarray
  28. features = sp.csr_matrix(idx_features_labels[:, 1:- 1], dtype=np.float32)
  29. #节点的标签,总共包括7个类别,类型为 np.ndarray
  30. labels = encode_onehot(idx_features_labels[:, - 1])
  31. # build graph
  32. #节点的id
  33. idx = np.array(idx_features_labels[:, 0], dtype=np.int32)
  34. #每个id进行编号
  35. idx_map = {j: i for i, j in enumerate(idx)}
  36. #
  37. edges_unordered = np.genfromtxt( "{}{}.cites". format(path, dataset),
  38. dtype=np.int32)
  39. edges = np.array( list( map(idx_map.get, edges_unordered.flatten())),
  40. dtype=np.int32).reshape(edges_unordered.shape) #map会根据提供的函数对指定序列做映射,flatten()就是降到一维
  41. adj = sp.coo_matrix((np.ones(edges.shape[ 0]), (edges[:, 0], edges[:, 1])),
  42. shape=(labels.shape[ 0], labels.shape[ 0]),
  43. dtype=np.float32)
  44. # build symmetric adjacency matrix
  45. adj = adj + adj.T.multiply(adj.T > adj) - adj.multiply(adj.T > adj)
  46. features = normalize(features)
  47. adj = normalize(adj + sp.eye(adj.shape[ 0]))
  48. idx_train = range( 140)
  49. idx_val = range( 200, 500)
  50. idx_test = range( 500, 1500)
  51. features = torch.FloatTensor(np.array(features.todense()))
  52. labels = torch.LongTensor(np.where(labels)[ 1])
  53. adj = sparse_mx_to_torch_sparse_tensor(adj)
  54. idx_train = torch.LongTensor(idx_train)
  55. idx_val = torch.LongTensor(idx_val)
  56. idx_test = torch.LongTensor(idx_test)
  57. return adj, features, labels, idx_train, idx_val, idx_test
  58. #特征归一化函数
  59. def normalize( mx):
  60. """Row-normalize sparse matrix""" #对稀疏矩阵进行正则化处理
  61. rowsum = np.array(mx. sum( 1)) #会得到一个(2708,1)的矩阵
  62. r_inv = np.power(rowsum, - 1).flatten() #数组元素求-1次方
  63. # 在计算倒数的时候存在一个问题,如果原来的值为0,则其倒数为无穷大,因此需要对r_inv中无穷大的值进行修正,更改为0
  64. r_inv[np.isinf(r_inv)] = 0.
  65. r_mat_inv = sp.diags(r_inv)
  66. mx = r_mat_inv.dot(mx)
  67. return mx
  68. #精度计算函数
  69. def accuracy( output, labels):
  70. # 使用type_as(tesnor)将张量转换为给定类型的张量
  71. preds = output. max( 1)[ 1].type_as(labels)
  72. # 记录等于preds的label eq:equal
  73. correct = preds.eq(labels).double()
  74. correct = correct. sum()
  75. return correct / len(labels)
  76. #将scipy稀疏矩阵转换为Torch稀疏张量
  77. def sparse_mx_to_torch_sparse_tensor( sparse_mx):
  78. """Convert a scipy sparse matrix to a torch sparse tensor."""
  79. """
  80. numpy中的ndarray转化成pytorch中的tensor : torch.from_numpy()
  81. pytorch中的tensor转化成numpy中的ndarray : numpy()
  82. """
  83. sparse_mx = sparse_mx.tocoo().astype(np.float32)
  84. indices = torch.from_numpy(
  85. np.vstack((sparse_mx.row, sparse_mx.col)).astype(np.int64))
  86. values = torch.from_numpy(sparse_mx.data)
  87. shape = torch.Size(sparse_mx.shape)
  88. return torch.sparse.FloatTensor(indices, values, shape)

2. models.py


  
  1. import torch.nn as nn
  2. import torch.nn.functional as F
  3. from pygcn.layers import GraphConvolution
  4. class GCN(nn.Module):
  5. def __init__( self, nfeat, nhid, nclass, dropout):
  6. super(GCN, self).__init__()
  7. self.gc1 = GraphConvolution(nfeat, nhid) #卷积层1:输入的特征为nfeat,维度是2708,输出的特征为nhid,维度是16
  8. self.gc2 = GraphConvolution(nhid, nclass) #卷积层2:输入的特征为nhid,维度是16,输出的特征为nclass,维度是7(即类别的结果)
  9. self.dropout = dropout
  10. def forward( self, x, adj): #forward是向前传播函数,最终得到网络向前传播的方式为:relu–>fropout–>gc2–>softmax
  11. x = F.relu(self.gc1(x, adj))
  12. x = F.dropout(x, self.dropout, training=self.training)
  13. x = self.gc2(x, adj)
  14. return F.log_softmax(x, dim= 1)

3. layers.py


  
  1. import math
  2. import torch
  3. from torch.nn.parameter import Parameter
  4. from torch.nn.modules.module import Module
  5. #layers中主要定义了图数据实现卷积操作的层,类似于CNN中的卷积层,只是一个层而已
  6. class GraphConvolution( Module):
  7. """
  8. Simple GCN layer, similar to https://arxiv.org/abs/1609.02907
  9. """
  10. #GraphConvolution作为一个类,首先需要定义其相关属性。主要定义了其输入特征in_feature、输出特征out_feature两个输入,
  11. # 以及权重weight和偏移向量bias两个参数,同时调用了其参数初始化的方法
  12. def __init__( self, in_features, out_features, bias=True):
  13. super(GraphConvolution, self).__init__()
  14. self.in_features = in_features
  15. self.out_features = out_features
  16. self.weight = Parameter(torch.FloatTensor(in_features, out_features))
  17. if bias:
  18. self.bias = Parameter(torch.FloatTensor(out_features))
  19. else:
  20. self.register_parameter( 'bias', None)
  21. self.reset_parameters()
  22. #为了让每次训练产生的初始参数尽可能的相同,从而便于实验结果的复现,可以设置固定的随机数生成种子
  23. def reset_parameters( self):
  24. stdv = 1. / math.sqrt(self.weight.size( 1)) #标准偏差
  25. self.weight.data.uniform_(-stdv, stdv)
  26. if self.bias is not None:
  27. self.bias.data.uniform_(-stdv, stdv)
  28. #此处主要定义的是本层的前向传播,通常采用的是 A ∗ X ∗ W A * X * WA∗X∗W的计算方法。由于A是一个sparse变量,因此其与X进行卷积的结果也是稀疏矩阵
  29. def forward( self, input, adj):
  30. support = torch.mm( input, self.weight)
  31. output = torch.spmm(adj, support)
  32. if self.bias is not None:
  33. return output + self.bias
  34. else:
  35. return output
  36. #__repr__()方法是类的实例化对象用来做“自我介绍”的方法,默认情况下,它会返回当前对象的“类名+object at+内存地址”,
  37. # 而如果对该方法进行重写,可以为其制作自定义的自我描述信息
  38. def __repr__( self):
  39. return self.__class__.__name__ + ' (' \
  40. + str(self.in_features) + ' -> ' \
  41. + str(self.out_features) + ')'

4. train.py


  
  1. from __future__ import division
  2. from __future__ import print_function
  3. import time
  4. import argparse
  5. import numpy as np
  6. import torch
  7. import torch.nn.functional as F
  8. import torch.optim as optim
  9. from pygcn.utils import load_data, accuracy
  10. from pygcn.models import GCN
  11. import matplotlib.pyplot as plt
  12. # Training settings
  13. parser = argparse.ArgumentParser()
  14. parser.add_argument( '--no-cuda', action= 'store_true', default= False,
  15. help= 'Disables CUDA training.')
  16. parser.add_argument( '--fastmode', action= 'store_true', default= False,
  17. help= 'Validate during training pass.')
  18. parser.add_argument( '--seed', type= int, default= 42, help= 'Random seed.')
  19. parser.add_argument( '--epochs', type= int, default= 200,
  20. help= 'Number of epochs to train.')
  21. parser.add_argument( '--lr', type= float, default= 0.01,
  22. help= 'Initial learning rate.')
  23. parser.add_argument( '--weight_decay', type= float, default= 5e-4,
  24. help= 'Weight decay (L2 loss on parameters).')
  25. parser.add_argument( '--hidden', type= int, default= 16,
  26. help= 'Number of hidden units.')
  27. parser.add_argument( '--dropout', type= float, default= 0.5,
  28. help= 'Dropout rate (1 - keep probability).')
  29. args = parser.parse_args()
  30. args.cuda = not args.no_cuda and torch.cuda.is_available()
  31. np.random.seed(args.seed)
  32. torch.manual_seed(args.seed)
  33. if args.cuda:
  34. torch.cuda.manual_seed(args.seed)
  35. # Load data
  36. adj, features, labels, idx_train, idx_val, idx_test = load_data()
  37. # Model and optimizer
  38. model = GCN(nfeat=features.shape[ 1],
  39. nhid=args.hidden,
  40. nclass=labels. max().item() + 1,
  41. dropout=args.dropout)
  42. optimizer = optim.Adam(model.parameters(),
  43. lr=args.lr, weight_decay=args.weight_decay)
  44. if args.cuda:
  45. model.cuda()
  46. features = features.cuda()
  47. adj = adj.cuda()
  48. labels = labels.cuda()
  49. idx_train = idx_train.cuda()
  50. idx_val = idx_val.cuda()
  51. idx_test = idx_test.cuda()
  52. def train():
  53. loss_history = []
  54. val_acc_history = []
  55. t = time.time()
  56. model.train()
  57. if not args.fastmode:
  58. # Evaluate validation set performance separately,
  59. # deactivates dropout during validation run.
  60. model. eval()
  61. output = model(features, adj)
  62. t_total = time.time()
  63. for epoch in range(args.epochs):
  64. optimizer.zero_grad()
  65. output = model(features, adj)
  66. loss_train = F.nll_loss(output[idx_train], labels[idx_train])
  67. acc_train = accuracy(output[idx_train], labels[idx_train])
  68. loss_train.backward()
  69. optimizer.step()
  70. loss_val = F.nll_loss(output[idx_val], labels[idx_val])
  71. acc_val = accuracy(output[idx_val], labels[idx_val])
  72. loss_history.append(loss_val.item())
  73. val_acc_history.append(acc_val.item())
  74. print( 'Epoch: {:04d}'. format(epoch+ 1),
  75. 'loss_train: {:.4f}'. format(loss_train.item()),
  76. 'acc_train: {:.4f}'. format(acc_train.item()),
  77. 'loss_val: {:.4f}'. format(loss_val.item()),
  78. 'acc_val: {:.4f}'. format(acc_val.item()),
  79. 'time: {:.4f}s'. format(time.time() - t))
  80. print( "Optimization Finished!")
  81. print( "Total time elapsed: {:.4f}s". format(time.time() - t_total))
  82. return loss_history,val_acc_history
  83. def test():
  84. model. eval()
  85. output = model(features, adj)
  86. # test_mask_logits = output[mask]
  87. loss_test = F.nll_loss(output[idx_test], labels[idx_test])
  88. acc_test = accuracy(output[idx_test], labels[idx_test])
  89. print( "Test set results:",
  90. "loss= {:.4f}". format(loss_test.item()),
  91. "accuracy= {:.4f}". format(acc_test.item()))
  92. #绘制loss和acc曲线
  93. def plot_loss_with_acc( loss_history, val_acc_history):
  94. fig = plt.figure()
  95. ax1 = fig.add_subplot( 111)
  96. ax1.plot( range( len(loss_history)), loss_history,
  97. c=np.array([ 255, 71, 90]) / 255.)
  98. plt.ylabel( 'Loss')
  99. ax2 = fig.add_subplot( 111, sharex=ax1, frameon= False)
  100. ax2.plot( range( len(val_acc_history)), val_acc_history,
  101. c=np.array([ 79, 179, 255]) / 255.)
  102. ax2.yaxis.tick_right()
  103. ax2.yaxis.set_label_position( "right")
  104. plt.ylabel( 'ValAcc')
  105. plt.xlabel( 'Epoch')
  106. plt.title( 'Training Loss & Validation Accuracy')
  107. plt.show()
  108. # Train model
  109. loss, val_acc = train()
  110. plot_loss_with_acc(loss, val_acc)
  111. #Testing
  112. test()
  113. # 绘制测试数据的TSNE降维图
  114. output = model(features, adj)
  115. output = output.cpu()
  116. output = output[idx_test].detach().numpy()
  117. print(output)
  118. print(output.shape)
  119. from sklearn.manifold import TSNE
  120. tsne = TSNE()
  121. out = tsne.fit_transform(output)
  122. fig = plt.figure()
  123. labels_test = labels[idx_test].detach().cpu().numpy()
  124. for i in range( 7):
  125. indices = labels_test == i
  126. # print(indices)
  127. x, y = out[indices].T
  128. plt.scatter(x, y, label= str(i))
  129. plt.legend()
  130. plt.show()

7.3 代码运行结果

(1)loss和acc训练曲线

200epochs训练之后,Test set results: loss= 0.6594 accuracy= 0.8360 

(2)测试数据的TSNE降维图

八、GAT 图注意力网络 Graph Attention Network

       图神经网络 GNN 把深度学习应用到图结构 (Graph) 中,其中的图卷积网络 GCN 可以在 Graph 上进行卷积操作。但是 GCN 存在一些缺陷:依赖拉普拉斯矩阵,不能直接用于有向图;模型训练依赖于整个图结构,不能用于动态图;卷积的时候没办法为邻居节点分配不同的权重。因此 2018 年图注意力网络 GAT (Graph Attention Network) 被提出,解决 GCN 存在的问题。 

论文下载地址:https://arxiv.org/abs/1710.10903

GCN 存在下面的缺点

GCN 假设图是无向的,因为利用了对称的拉普拉斯矩阵 (只有邻接矩阵 A 是对称的,拉普拉斯矩阵才可以正交分解),不能直接用于有向图。GCN 的作者为了处理有向图,需要对 Graph 结构进行调整,要把有向边划分成两个节点放入 Graph 中。例如 e1、e2 为两个节点,r 为 e1,e2 的有向关系,则需要把 r 划分为两个关系节点 r1 和 r2 放入图中。连接 (e1, r1)、(e2, r2)。

GCN 不能处理动态图,GCN 在训练时依赖于具体的图结构,测试的时候也要在相同的图上进行。因此只能处理 transductive 任务,不能处理 inductive 任务。transductive 指训练和测试的时候基于相同的图结构,例如在一个社交网络上,知道一部分人的类别,预测另一部分人的类别。inductive 指训练和测试使用不同的图结构,例如在一个社交网络上训练,在另一个社交网络上预测。

GCN 不能为每个邻居分配不同的权重,GCN 在卷积时对所有邻居节点均一视同仁,不能根据节点重要性分配不同的权重。

       2018 年图注意力网络 GAT 被提出,用于解决 GCN 的上述问题,论文是《GRAPH ATTENTION NETWORKS》(ICLR2018)。GAT 采用了 Attention 机制,可以为不同节点分配不同权重,训练时依赖于成对的相邻节点,而不依赖具体的网络结构,可以用于 inductive 任务。 

8.1 引入Attention机制

假设 Graph 包含 N 个节点,每个节点的特征向量为 hi,维度是 F,如下所示:

节点特征向量 h 

对节点特征向量 h 进行线性变换,可以得到新的特征向量 h'i,维度是 F',如下所示,W 为线性变换的矩阵:

节点特征向量线性变换 h'

节点 j 是节点 i 的邻居,则可以使用 Attention 机制计算节点 j 对于节点 i 的重要性,即 Attention Score:

Attention Score

GAT 具体的 Attention 做法如下,把节点 i、j 的特征向量 h'i、h'j 拼接在一起,然后和一个 2F' 维的向量 a 计算内积。激活函数采用 LeakyReLU,公式如下:

GAT Attention 计算方式

Attention 如下图所示: 

GAT Attention 示意图 

经过 Attention 之后节点 i 的特征向量如下:

Attention 后的特征向量

8.2 采用Multi-Head Attention

GAT 也可以采用 Multi-Head Attention,即多个 Attention,如下图所示:

GAT Multi-Head Attention

如果有 K 个 Attention,则需要把 K 个 Attention 生成的向量拼接在一起,如下: 

K 个 Attention 输出结果拼接

但是如果是最后一层,则 K 个 Attention 的输出不进行拼接,而是求平均。 

最后一层 Attention 输出结果

8.3 代码实现

数据集与上一节(第七节)中的一致,代码基本一致,只是稍作处理

utils.py


  
  1. import numpy as np
  2. import scipy.sparse as sp
  3. import torch
  4. def encode_onehot( labels):
  5. # The classes must be sorted before encoding to enable static class encoding.
  6. # In other words, make sure the first class always maps to index 0.
  7. classes = sorted( list( set(labels)))
  8. classes_dict = {c: np.identity( len(classes))[i, :] for i, c in enumerate(classes)}
  9. labels_onehot = np.array( list( map(classes_dict.get, labels)), dtype=np.int32)
  10. return labels_onehot
  11. def load_data( path="./data/cora/", dataset="cora"):
  12. """Load citation network dataset (cora only for now)"""
  13. print( 'Loading {} dataset...'. format(dataset))
  14. idx_features_labels = np.genfromtxt( "{}{}.content". format(path, dataset), dtype=np.dtype( str))
  15. features = sp.csr_matrix(idx_features_labels[:, 1:- 1], dtype=np.float32)
  16. labels = encode_onehot(idx_features_labels[:, - 1])
  17. # build graph
  18. idx = np.array(idx_features_labels[:, 0], dtype=np.int32)
  19. idx_map = {j: i for i, j in enumerate(idx)}
  20. edges_unordered = np.genfromtxt( "{}{}.cites". format(path, dataset), dtype=np.int32)
  21. edges = np.array( list( map(idx_map.get, edges_unordered.flatten())), dtype=np.int32).reshape(edges_unordered.shape)
  22. adj = sp.coo_matrix((np.ones(edges.shape[ 0]), (edges[:, 0], edges[:, 1])), shape=(labels.shape[ 0], labels.shape[ 0]), dtype=np.float32)
  23. # build symmetric adjacency matrix
  24. adj = adj + adj.T.multiply(adj.T > adj) - adj.multiply(adj.T > adj)
  25. features = normalize_features(features)
  26. adj = normalize_adj(adj + sp.eye(adj.shape[ 0]))
  27. idx_train = range( 140)
  28. idx_val = range( 200, 500)
  29. idx_test = range( 500, 1500)
  30. adj = torch.FloatTensor(np.array(adj.todense()))
  31. features = torch.FloatTensor(np.array(features.todense()))
  32. labels = torch.LongTensor(np.where(labels)[ 1])
  33. idx_train = torch.LongTensor(idx_train)
  34. idx_val = torch.LongTensor(idx_val)
  35. idx_test = torch.LongTensor(idx_test)
  36. return adj, features, labels, idx_train, idx_val, idx_test
  37. def normalize_adj( mx):
  38. """Row-normalize sparse matrix"""
  39. rowsum = np.array(mx. sum( 1))
  40. r_inv_sqrt = np.power(rowsum, - 0.5).flatten()
  41. r_inv_sqrt[np.isinf(r_inv_sqrt)] = 0.
  42. r_mat_inv_sqrt = sp.diags(r_inv_sqrt)
  43. return mx.dot(r_mat_inv_sqrt).transpose().dot(r_mat_inv_sqrt)
  44. def normalize_features( mx):
  45. """Row-normalize sparse matrix"""
  46. rowsum = np.array(mx. sum( 1))
  47. r_inv = np.power(rowsum, - 1).flatten()
  48. r_inv[np.isinf(r_inv)] = 0.
  49. r_mat_inv = sp.diags(r_inv)
  50. mx = r_mat_inv.dot(mx)
  51. return mx
  52. def accuracy( output, labels):
  53. preds = output. max( 1)[ 1].type_as(labels)
  54. correct = preds.eq(labels).double()
  55. correct = correct. sum()
  56. return correct / len(labels)

models.py


  
  1. import torch
  2. import torch.nn as nn
  3. import torch.nn.functional as F
  4. from layers import GraphAttentionLayer, SpGraphAttentionLayer
  5. class GAT(nn.Module):
  6. def __init__( self, nfeat, nhid, nclass, dropout, alpha, nheads):
  7. """Dense version of GAT."""
  8. super(GAT, self).__init__()
  9. self.dropout = dropout
  10. self.attentions = [GraphAttentionLayer(nfeat, nhid, dropout=dropout, alpha=alpha, concat= True) for _ in range(nheads)]
  11. for i, attention in enumerate(self.attentions):
  12. self.add_module( 'attention_{}'. format(i), attention)
  13. self.out_att = GraphAttentionLayer(nhid * nheads, nclass, dropout=dropout, alpha=alpha, concat= False)
  14. def forward( self, x, adj):
  15. x = F.dropout(x, self.dropout, training=self.training)
  16. x = torch.cat([att(x, adj) for att in self.attentions], dim= 1)
  17. x = F.dropout(x, self.dropout, training=self.training)
  18. x = F.elu(self.out_att(x, adj))
  19. return F.log_softmax(x, dim= 1)
  20. class SpGAT(nn.Module):
  21. def __init__( self, nfeat, nhid, nclass, dropout, alpha, nheads):
  22. """Sparse version of GAT."""
  23. super(SpGAT, self).__init__()
  24. self.dropout = dropout
  25. self.attentions = [SpGraphAttentionLayer(nfeat,
  26. nhid,
  27. dropout=dropout,
  28. alpha=alpha,
  29. concat= True) for _ in range(nheads)]
  30. for i, attention in enumerate(self.attentions):
  31. self.add_module( 'attention_{}'. format(i), attention)
  32. self.out_att = SpGraphAttentionLayer(nhid * nheads,
  33. nclass,
  34. dropout=dropout,
  35. alpha=alpha,
  36. concat= False)
  37. def forward( self, x, adj):
  38. x = F.dropout(x, self.dropout, training=self.training)
  39. x = torch.cat([att(x, adj) for att in self.attentions], dim= 1)
  40. x = F.dropout(x, self.dropout, training=self.training)
  41. x = F.elu(self.out_att(x, adj))
  42. return F.log_softmax(x, dim= 1)

layers.py


  
  1. import numpy as np
  2. import torch
  3. import torch.nn as nn
  4. import torch.nn.functional as F
  5. class GraphAttentionLayer(nn.Module):
  6. """
  7. Simple GAT layer, similar to https://arxiv.org/abs/1710.10903
  8. """
  9. def __init__( self, in_features, out_features, dropout, alpha, concat=True):
  10. super(GraphAttentionLayer, self).__init__()
  11. self.dropout = dropout
  12. self.in_features = in_features
  13. self.out_features = out_features
  14. self.alpha = alpha
  15. self.concat = concat
  16. self.W = nn.Parameter(torch.empty(size=(in_features, out_features)))
  17. nn.init.xavier_uniform_(self.W.data, gain= 1.414)
  18. self.a = nn.Parameter(torch.empty(size=( 2*out_features, 1)))
  19. nn.init.xavier_uniform_(self.a.data, gain= 1.414)
  20. self.leakyrelu = nn.LeakyReLU(self.alpha)
  21. def forward( self, h, adj):
  22. Wh = torch.mm(h, self.W) # h.shape: (N, in_features), Wh.shape: (N, out_features)
  23. e = self._prepare_attentional_mechanism_input(Wh)
  24. zero_vec = - 9e15*torch.ones_like(e)
  25. attention = torch.where(adj > 0, e, zero_vec)
  26. attention = F.softmax(attention, dim= 1)
  27. attention = F.dropout(attention, self.dropout, training=self.training)
  28. h_prime = torch.matmul(attention, Wh)
  29. if self.concat:
  30. return F.elu(h_prime)
  31. else:
  32. return h_prime
  33. def _prepare_attentional_mechanism_input( self, Wh):
  34. # Wh.shape (N, out_feature)
  35. # self.a.shape (2 * out_feature, 1)
  36. # Wh1&2.shape (N, 1)
  37. # e.shape (N, N)
  38. Wh1 = torch.matmul(Wh, self.a[:self.out_features, :])
  39. Wh2 = torch.matmul(Wh, self.a[self.out_features:, :])
  40. # broadcast add
  41. e = Wh1 + Wh2.T
  42. return self.leakyrelu(e)
  43. def __repr__( self):
  44. return self.__class__.__name__ + ' (' + str(self.in_features) + ' -> ' + str(self.out_features) + ')'
  45. class SpecialSpmmFunction(torch.autograd.Function):
  46. """Special function for only sparse region backpropataion layer."""
  47. @staticmethod
  48. def forward( ctx, indices, values, shape, b):
  49. assert indices.requires_grad == False
  50. a = torch.sparse_coo_tensor(indices, values, shape)
  51. ctx.save_for_backward(a, b)
  52. ctx.N = shape[ 0]
  53. return torch.matmul(a, b)
  54. @staticmethod
  55. def backward( ctx, grad_output):
  56. a, b = ctx.saved_tensors
  57. grad_values = grad_b = None
  58. if ctx.needs_input_grad[ 1]:
  59. grad_a_dense = grad_output.matmul(b.t())
  60. edge_idx = a._indices()[ 0, :] * ctx.N + a._indices()[ 1, :]
  61. grad_values = grad_a_dense.view(- 1)[edge_idx]
  62. if ctx.needs_input_grad[ 3]:
  63. grad_b = a.t().matmul(grad_output)
  64. return None, grad_values, None, grad_b
  65. class SpecialSpmm(nn.Module):
  66. def forward( self, indices, values, shape, b):
  67. return SpecialSpmmFunction.apply(indices, values, shape, b)
  68. class SpGraphAttentionLayer(nn.Module):
  69. """
  70. Sparse version GAT layer, similar to https://arxiv.org/abs/1710.10903
  71. """
  72. def __init__( self, in_features, out_features, dropout, alpha, concat=True):
  73. super(SpGraphAttentionLayer, self).__init__()
  74. self.in_features = in_features
  75. self.out_features = out_features
  76. self.alpha = alpha
  77. self.concat = concat
  78. self.W = nn.Parameter(torch.zeros(size=(in_features, out_features)))
  79. nn.init.xavier_normal_(self.W.data, gain= 1.414)
  80. self.a = nn.Parameter(torch.zeros(size=( 1, 2*out_features)))
  81. nn.init.xavier_normal_(self.a.data, gain= 1.414)
  82. self.dropout = nn.Dropout(dropout)
  83. self.leakyrelu = nn.LeakyReLU(self.alpha)
  84. self.special_spmm = SpecialSpmm()
  85. def forward( self, input, adj):
  86. dv = 'cuda' if input.is_cuda else 'cpu'
  87. N = input.size()[ 0]
  88. edge = adj.nonzero().t()
  89. h = torch.mm( input, self.W)
  90. # h: N x out
  91. assert not torch.isnan(h). any()
  92. # Self-attention on the nodes - Shared attention mechanism
  93. edge_h = torch.cat((h[edge[ 0, :], :], h[edge[ 1, :], :]), dim= 1).t()
  94. # edge: 2*D x E
  95. edge_e = torch.exp(-self.leakyrelu(self.a.mm(edge_h).squeeze()))
  96. assert not torch.isnan(edge_e). any()
  97. # edge_e: E
  98. e_rowsum = self.special_spmm(edge, edge_e, torch.Size([N, N]), torch.ones(size=(N, 1), device=dv))
  99. # e_rowsum: N x 1
  100. edge_e = self.dropout(edge_e)
  101. # edge_e: E
  102. h_prime = self.special_spmm(edge, edge_e, torch.Size([N, N]), h)
  103. assert not torch.isnan(h_prime). any()
  104. # h_prime: N x out
  105. h_prime = h_prime.div(e_rowsum)
  106. # h_prime: N x out
  107. assert not torch.isnan(h_prime). any()
  108. if self.concat:
  109. # if this layer is not last layer,
  110. return F.elu(h_prime)
  111. else:
  112. # if this layer is last layer,
  113. return h_prime
  114. def __repr__( self):
  115. return self.__class__.__name__ + ' (' \
  116. + str(self.in_features) + ' -> '\
  117. + str(self.out_features) + ')'

train.py


  
  1. from __future__ import division
  2. from __future__ import print_function
  3. import os
  4. import glob
  5. import time
  6. import random
  7. import argparse
  8. import numpy as np
  9. import torch
  10. import torch.nn as nn
  11. import torch.nn.functional as F
  12. import torch.optim as optim
  13. from torch.autograd import Variable
  14. from utils import load_data, accuracy
  15. from models import GAT, SpGAT
  16. import matplotlib.pyplot as plt
  17. # Training settings
  18. parser = argparse.ArgumentParser()
  19. parser.add_argument( '--no-cuda', action= 'store_true', default= False, help= 'Disables CUDA training.')
  20. parser.add_argument( '--fastmode', action= 'store_true', default= False, help= 'Validate during training pass.')
  21. parser.add_argument( '--sparse', action= 'store_true', default= False, help= 'GAT with sparse version or not.')
  22. parser.add_argument( '--seed', type= int, default= 72, help= 'Random seed.')
  23. parser.add_argument( '--epochs', type= int, default= 10000, help= 'Number of epochs to train.')
  24. parser.add_argument( '--lr', type= float, default= 0.005, help= 'Initial learning rate.')
  25. parser.add_argument( '--weight_decay', type= float, default= 5e-4, help= 'Weight decay (L2 loss on parameters).')
  26. parser.add_argument( '--hidden', type= int, default= 8, help= 'Number of hidden units.')
  27. parser.add_argument( '--nb_heads', type= int, default= 8, help= 'Number of head attentions.')
  28. parser.add_argument( '--dropout', type= float, default= 0.6, help= 'Dropout rate (1 - keep probability).')
  29. parser.add_argument( '--alpha', type= float, default= 0.2, help= 'Alpha for the leaky_relu.')
  30. parser.add_argument( '--patience', type= int, default= 100, help= 'Patience')
  31. args = parser.parse_args()
  32. args.cuda = not args.no_cuda and torch.cuda.is_available()
  33. random.seed(args.seed)
  34. np.random.seed(args.seed)
  35. torch.manual_seed(args.seed)
  36. if args.cuda:
  37. torch.cuda.manual_seed(args.seed)
  38. # Load data
  39. adj, features, labels, idx_train, idx_val, idx_test = load_data()
  40. # Model and optimizer
  41. if args.sparse:
  42. model = SpGAT(nfeat=features.shape[ 1],
  43. nhid=args.hidden,
  44. nclass= int(labels. max()) + 1,
  45. dropout=args.dropout,
  46. nheads=args.nb_heads,
  47. alpha=args.alpha)
  48. else:
  49. model = GAT(nfeat=features.shape[ 1],
  50. nhid=args.hidden,
  51. nclass= int(labels. max()) + 1,
  52. dropout=args.dropout,
  53. nheads=args.nb_heads,
  54. alpha=args.alpha)
  55. optimizer = optim.Adam(model.parameters(),
  56. lr=args.lr,
  57. weight_decay=args.weight_decay)
  58. if args.cuda:
  59. model.cuda()
  60. features = features.cuda()
  61. adj = adj.cuda()
  62. labels = labels.cuda()
  63. idx_train = idx_train.cuda()
  64. idx_val = idx_val.cuda()
  65. idx_test = idx_test.cuda()
  66. features, adj, labels = Variable(features), Variable(adj), Variable(labels)
  67. def train( epoch):
  68. t = time.time()
  69. model.train()
  70. optimizer.zero_grad()
  71. output = model(features, adj)
  72. loss_train = F.nll_loss(output[idx_train], labels[idx_train])
  73. acc_train = accuracy(output[idx_train], labels[idx_train])
  74. loss_train.backward()
  75. optimizer.step()
  76. if not args.fastmode:
  77. # Evaluate validation set performance separately,
  78. # deactivates dropout during validation run.
  79. model. eval()
  80. output = model(features, adj)
  81. loss_val = F.nll_loss(output[idx_val], labels[idx_val])
  82. acc_val = accuracy(output[idx_val], labels[idx_val])
  83. print( 'Epoch: {:04d}'. format(epoch+ 1),
  84. 'loss_train: {:.4f}'. format(loss_train.data.item()),
  85. 'acc_train: {:.4f}'. format(acc_train.data.item()),
  86. 'loss_val: {:.4f}'. format(loss_val.data.item()),
  87. 'acc_val: {:.4f}'. format(acc_val.data.item()),
  88. 'time: {:.4f}s'. format(time.time() - t))
  89. return loss_val.data.item(),acc_val.data.item()
  90. def compute_test():
  91. model. eval()
  92. output = model(features, adj)
  93. loss_test = F.nll_loss(output[idx_test], labels[idx_test])
  94. acc_test = accuracy(output[idx_test], labels[idx_test])
  95. print( "Test set results:",
  96. "loss= {:.4f}". format(loss_test.data.item()),
  97. "accuracy= {:.4f}". format(acc_test.data.item()))
  98. # Train model
  99. t_total = time.time()
  100. loss_values = []
  101. acc_values = []
  102. bad_counter = 0
  103. best = args.epochs + 1
  104. best_epoch = 0
  105. for epoch in range(args.epochs):
  106. loss,acc = train(epoch)
  107. loss_values.append(loss)
  108. acc_values.append(acc)
  109. torch.save(model.state_dict(), '{}.pkl'. format(epoch))
  110. if loss_values[- 1] < best:
  111. best = loss_values[- 1]
  112. best_epoch = epoch
  113. bad_counter = 0
  114. else:
  115. bad_counter += 1
  116. if bad_counter == args.patience:
  117. break
  118. files = glob.glob( '*.pkl')
  119. for file in files:
  120. epoch_nb = int(file.split( '.')[ 0])
  121. if epoch_nb < best_epoch:
  122. os.remove(file)
  123. # print(loss_values)
  124. # print(acc_values)
  125. #绘制loss和acc曲线
  126. def plot_loss_with_acc( loss_history, val_acc_history):
  127. fig = plt.figure()
  128. ax1 = fig.add_subplot( 111)
  129. ax1.plot( range( len(loss_history)), loss_history,
  130. c=np.array([ 255, 71, 90]) / 255.)
  131. plt.ylabel( 'Loss')
  132. ax2 = fig.add_subplot( 111, sharex=ax1, frameon= False)
  133. ax2.plot( range( len(val_acc_history)), val_acc_history,
  134. c=np.array([ 79, 179, 255]) / 255.)
  135. ax2.yaxis.tick_right()
  136. ax2.yaxis.set_label_position( "right")
  137. plt.ylabel( 'ValAcc')
  138. plt.xlabel( 'Epoch')
  139. plt.title( 'Training Loss & Validation Accuracy')
  140. # plt.show()
  141. #绘制loss和acc曲线
  142. plot_loss_with_acc(loss_values,acc_values)
  143. files = glob.glob( '*.pkl')
  144. for file in files:
  145. epoch_nb = int(file.split( '.')[ 0])
  146. if epoch_nb > best_epoch:
  147. os.remove(file)
  148. print( "Optimization Finished!")
  149. print( "Total time elapsed: {:.4f}s". format(time.time() - t_total))
  150. # Restore best model
  151. print( 'Loading {}th epoch'. format(best_epoch))
  152. model.load_state_dict(torch.load( '{}.pkl'. format(best_epoch)))
  153. # Testing
  154. compute_test()
  155. # 绘制测试数据的TSNE降维图
  156. output = model(features, adj)
  157. output = output.cpu()
  158. output = output[idx_test].detach().numpy()
  159. # print(output)
  160. # print(output.shape)
  161. from sklearn.manifold import TSNE
  162. tsne = TSNE()
  163. out = tsne.fit_transform(output)
  164. fig = plt.figure()
  165. labels_test = labels[idx_test].detach().cpu().numpy()
  166. for i in range( 7):
  167. indices = labels_test == i
  168. # print(indices)
  169. x, y = out[indices].T
  170. plt.scatter(x, y, label= str(i))
  171. plt.legend()
  172. plt.show()

8.4 模型结果

(1)模型训练曲线图:

Test set results: loss= 0.6537 accuracy= 0.8470 结果比没有加Attention的GCN要好

(2)聚类效果如下图:

参考文献:

1. ICLR 2023 Open Review投稿文章一览,投稿量暴涨46%,「Diffusion」、「Mask」关键词成为新热点 - 知乎

2. GNN的理解与研究_江南綿雨的博客-CSDN博客_gnn

3. 跳出公式,看清全局,图神经网络(GCN)原理详解_kisssfish的博客-CSDN博客_gcn原理

4. pytorch框架下—GCN代码详细解读_MelvinDong的博客-CSDN博客_gcn代码解读

5. GNN学习笔记(四):Cora数据集读取与分析_花锄的博客-CSDN博客_cora数据

6. https://baijiahao.baidu.com/s?id=1671028964544884749 (GAT 图注意力网络)


转载:https://blog.csdn.net/weixin_43734080/article/details/127448525
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场