图神经网络学习实践——Zachary’s karate club Problem

图神经网络学习实践——Zachary’s karate club Problem图神经网络是一类比较特殊的神经网络 这里的图不同于我们卷积神经网络里面所使用到的图像 而是指的是 node 和 edge 组成的具有拓扑结构的图 这一类型的数据和应用我在平时的工作实践中接触得还是比较少的 正好就当做是学习了 DGL 是一个 Python 软件包 专门用于在图上进行深度学习 它构建在顶部现有的张量 DL 框架 例如 Pytorch MXNet 并简化了基于图的神经网络的实现 这里 DGL 的安装也是很简单的 具体的安装方案可以参考这里 windows 下的

       图神经网络是一类比较特殊的神经网络,这里的图不同于我们卷积神经网络里面所使用到的图像,而是指的是node和edge组成的具有拓扑结构的图,这一类型的数据和应用我在平时的工作实践中接触得还是比较少的,正好就当做是学习了。

      DGL是一个Python软件包,专门用于在图上进行深度学习,它构建在顶部现有的张量DL框架(例如Pytorch,MXNet)并简化了基于图的神经网络的实现。

      这里DGL的安装也是很简单的,具体的安装方案可以参考这里。

      windows下的安装命令如下:

pip install dgl

       整体的安装是很简单的。

       本文主要是实践DGL官网的教程【扎卡里的空手道俱乐部问题】。 空手道俱乐部是一个社交网络,由34名成员组成,并记录俱乐部外部互动的成员之间的成对链接。 俱乐部随后分为两个社区,由教员(节点0)和俱乐部主席(节点33)领导。 网络的可视化如下,其颜色指示社区:

图神经网络学习实践——Zachary’s karate club Problem

      该教程的任务是预测给定社交网络本身每个成员倾向于加入哪一侧(0或33)。

Step 1: Creating a graph in DGL

    首先初始化创建图,代码实现如下所示:

def build_karate_club_graph(): ''' 所有78条边都存储在两个numpy数组中, 一个用于源端点而另一个用于目标端点 ''' src = np.array([1, 2, 2, 3, 3, 3, 4, 5, 6, 6, 6, 7, 7, 7, 7, 8, 8, 9, 10, 10, 10, 11, 12, 12, 13, 13, 13, 13, 16, 16, 17, 17, 19, 19, 21, 21, 25, 25, 27, 27, 27, 28, 29, 29, 30, 30, 31, 31, 31, 31, 32, 32, 32, 32, 32, 32, 32, 32, 32, 32, 32, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33]) dst = np.array([0, 0, 1, 0, 1, 2, 0, 0, 0, 4, 5, 0, 1, 2, 3, 0, 2, 2, 0, 4, 5, 0, 0, 3, 0, 1, 2, 3, 5, 6, 0, 1, 0, 1, 0, 1, 23, 24, 2, 23, 24, 2, 23, 26, 1, 8, 0, 24, 25, 28, 2, 8, 14, 15, 18, 20, 22, 23, 29, 30, 31, 8, 9, 13, 14, 15, 18, 19, 20, 22, 23, 26, 27, 28, 29, 30, 31, 32]) #边缘在DGL中是有方向的; 使它们双向 u = np.concatenate([src, dst]) v = np.concatenate([dst, src]) #构建图 return dgl.DGLGraph((u, v))

       在新构建的图中打印出节点和边的数量

G = build_karate_club_graph() print('We have %d nodes.' % G.number_of_nodes()) print('We have %d edges.' % G.number_of_edges())

       结果如下所示:

图神经网络学习实践——Zachary’s karate club Problem

     接下来基于networkx来对图进行可视化,代码实现如下所示:

#通过将其转换为networkx图来可视化该图 nx_G = G.to_networkx().to_undirected() pos = nx.kamada_kawai_layout(nx_G) nx.draw(nx_G, pos, with_labels=True, node_color=[[.7, .7, .7]]) plt.savefig('graph.png')

     结果如下所示:

图神经网络学习实践——Zachary’s karate club Problem

      这里基于networkx绘制的是无向图。

Step 2: Assign features to nodes or edges

     图神经网络将特征与节点和边关联以进行训练。 对于我们的分类示例,由于没有输入功能,因此我们为每个节点分配了可学习的嵌入向量。代码实现如下所示:

embed = nn.Embedding(34, 5) # 34 nodes with embedding dim equal to 5 G.ndata['feat'] = embed.weight print(G.ndata['feat'][2]) print(G.ndata['feat'][[10, 11]])

      结果如下所示:

图神经网络学习实践——Zachary’s karate club Problem

Step 3: Define a Graph Convolutional Network (GCN)

     要执行节点分类,请使用由Kipf和Welling开发的图卷积网络(GCN)。 这是GCN框架的最简单定义。 我们建议您阅读原始文章以获取更多详细信息。

图神经网络学习实践——Zachary’s karate club Problem

    如下所示:

图神经网络学习实践——Zachary’s karate club Problem

      定义一个包含两个GCN层的更深入的GCN模型:

class GCN(nn.Module): def __init__(self, in_feats, hidden_size, num_classes): super(GCN, self).__init__() self.conv1 = GraphConv(in_feats, hidden_size) self.conv2 = GraphConv(hidden_size, num_classes) def forward(self, g, inputs): h = self.conv1(g, inputs) h = torch.relu(h) h = self.conv2(g, h) return h #初始化网络实例 net = GCN(5, 5, 2) print('net: ', net)

       结果如下所示:

图神经网络学习实践——Zachary’s karate club Problem

Step 4: Data preparation and initialization

      我们使用可学习的嵌入来初始化节点特征。 由于这是半监督设置,因此仅为教练(节点0)和俱乐部主席(节点33)分配标签。 该实现如下。

inputs = embed.weight labeled_nodes = torch.tensor([0, 33]) # only the instructor and the president nodes are labeled labels = torch.tensor([0, 1]) # their labels are different

Step 5: Train then visualize

        训练循环与其他PyTorch模型完全相同。 我们(1)创建一个优化器,(2)将输入输入模型,(3)计算损失,(4)使用自动分级优化模型。

optimizer = torch.optim.Adam(itertools.chain(net.parameters(), embed.parameters()), lr=0.01) all_logits = [] for epoch in range(50): logits = net(G, inputs) # we save the logits for visualization later all_logits.append(logits.detach()) logp = F.log_softmax(logits, 1) # we only compute loss for labeled nodes loss = F.nll_loss(logp[labeled_nodes], labels) optimizer.zero_grad() loss.backward() optimizer.step() print('Epoch %d | Loss: %.4f' % (epoch, loss.item()))

       结果如下所示:

图神经网络学习实践——Zachary’s karate club Problem

       这是一个很有趣的示例,因此甚至没有验证或测试集。 相反,由于模型为每个节点生成大小为2的输出特征,因此我们可以通过在2D空间中绘制输出特征来可视化。 以下代码使训练过程从最初的猜测(根本没有对节点进行正确分类)到最终的结果(使节点线性可分离)动画化。

def draw(i): cls1color = '#00FFFF' cls2color = '#FF00FF' pos = {} colors = [] for v in range(34): pos[v] = all_logits[i][v].numpy() cls = pos[v].argmax() colors.append(cls1color if cls else cls2color) ax.cla() ax.axis('off') ax.set_title('Epoch: %d' % i) nx.draw_networkx(nx_G.to_undirected(), pos, node_color=colors, with_labels=True, node_size=300, ax=ax) fig = plt.figure(dpi=150) fig.clf() ax = fig.subplots() draw(0) plt.savefig('0.png')

      结果如下所示:

图神经网络学习实践——Zachary’s karate club Problem

      以下动画显示了经过一系列训练后,模型如何正确预测社区。

图神经网络学习实践——Zachary’s karate club Problem

       今天是图神经网络的初步实践,后面有时间会继续学习。

        完整代码如下所示:

#!usr/bin/env python #encoding:utf-8 from __future__ import division """ __Author__:沂水寒城 DGL概览: DGL是一个Python软件包,专门用于在图上进行深度学习,它构建在顶部现有的张量DL框架 (例如Pytorch,MXNet)并简化了基于图的神经网络的实现。 """ import dgl import numpy as np import networkx as nx import torch import torch.nn as nn import torch.nn.functional as F from dgl.nn.pytorch import GraphConv import itertools import matplotlib.animation as animation import matplotlib.pyplot as plt #Step 1: Creating a graph in DGL def build_karate_club_graph(): ''' 所有78条边都存储在两个numpy数组中, 一个用于源端点而另一个用于目标端点 ''' src = np.array([1, 2, 2, 3, 3, 3, 4, 5, 6, 6, 6, 7, 7, 7, 7, 8, 8, 9, 10, 10, 10, 11, 12, 12, 13, 13, 13, 13, 16, 16, 17, 17, 19, 19, 21, 21, 25, 25, 27, 27, 27, 28, 29, 29, 30, 30, 31, 31, 31, 31, 32, 32, 32, 32, 32, 32, 32, 32, 32, 32, 32, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33, 33]) dst = np.array([0, 0, 1, 0, 1, 2, 0, 0, 0, 4, 5, 0, 1, 2, 3, 0, 2, 2, 0, 4, 5, 0, 0, 3, 0, 1, 2, 3, 5, 6, 0, 1, 0, 1, 0, 1, 23, 24, 2, 23, 24, 2, 23, 26, 1, 8, 0, 24, 25, 28, 2, 8, 14, 15, 18, 20, 22, 23, 29, 30, 31, 8, 9, 13, 14, 15, 18, 19, 20, 22, 23, 26, 27, 28, 29, 30, 31, 32]) #边缘在DGL中是有方向的; 使它们双向 u = np.concatenate([src, dst]) v = np.concatenate([dst, src]) #构建图 return dgl.DGLGraph((u, v)) #在新构建的图中打印出节点和边的数量 G = build_karate_club_graph() print('We have %d nodes.' % G.number_of_nodes()) print('We have %d edges.' % G.number_of_edges()) #通过将其转换为networkx图来可视化该图 nx_G = G.to_networkx().to_undirected() pos = nx.kamada_kawai_layout(nx_G) nx.draw(nx_G, pos, with_labels=True, node_color=[[.7, .7, .7]]) plt.savefig('graph.png') # Step 2: Assign features to nodes or edges embed = nn.Embedding(34, 5) # 34 nodes with embedding dim equal to 5 G.ndata['feat'] = embed.weight print(G.ndata['feat'][2]) print(G.ndata['feat'][[10, 11]]) # Step 3: Define a Graph Convolutional Network (GCN) class GCN(nn.Module): def __init__(self, in_feats, hidden_size, num_classes): super(GCN, self).__init__() self.conv1 = GraphConv(in_feats, hidden_size) self.conv2 = GraphConv(hidden_size, num_classes) def forward(self, g, inputs): h = self.conv1(g, inputs) h = torch.relu(h) h = self.conv2(g, h) return h #初始化网络实例 net = GCN(5, 5, 2) print('net: ', net) # Step 4: Data preparation and initialization inputs = embed.weight labeled_nodes = torch.tensor([0, 33]) # labels = torch.tensor([0, 1]) # Step 5: Train then visualize optimizer = torch.optim.Adam(itertools.chain(net.parameters(), embed.parameters()), lr=0.01) all_logits = [] for epoch in range(50): logits = net(G, inputs) # we save the logits for visualization later all_logits.append(logits.detach()) logp = F.log_softmax(logits, 1) # we only compute loss for labeled nodes loss = F.nll_loss(logp[labeled_nodes], labels) optimizer.zero_grad() loss.backward() optimizer.step() print('Epoch %d | Loss: %.4f' % (epoch, loss.item())) def draw(i): cls1color = '#00FFFF' cls2color = '#FF00FF' pos = {} colors = [] for v in range(34): pos[v] = all_logits[i][v].numpy() cls = pos[v].argmax() colors.append(cls1color if cls else cls2color) ax.cla() ax.axis('off') ax.set_title('Epoch: %d' % i) nx.draw_networkx(nx_G.to_undirected(), pos, node_color=colors, with_labels=True, node_size=300, ax=ax) fig = plt.figure(dpi=150) fig.clf() ax = fig.subplots() draw(0) plt.savefig('0.png') ani = animation.FuncAnimation(fig, draw, frames=len(all_logits), interval=200) plt.savefig('1.png')

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/211300.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月18日 下午10:45
下一篇 2026年3月18日 下午10:45


相关推荐

  • 快手NLP面试题:Agent开发框架

    快手NLP面试题:Agent开发框架

    2026年3月14日
    1
  • JVM相关问题整理

    备注:针对基本问题做一些基本的总结,不是详细解答!1.运行时数据区域(内存模型)(必考)2.垃圾回收机制(必考)3.垃圾回收算法(必考)4.MinorGC和FullGC触发条件5.GC中Stoptheworld(STW)6.各垃圾回收器的特点及区别,怎么做选择?7.双亲委派模型8.JDBC和双亲委派模型关系9.JVM锁优化和锁膨胀过程10.JVM中G…

    2022年4月6日
    36
  • IIS真正能用的ISAPI-Rewrite防盗链规则写法

    IIS真正能用的ISAPI-Rewrite防盗链规则写法本规则支持白名单排除式防盗链,搜索引擎友好不屏蔽,被盗链后的错误提示转向,支持各种文件类型,经作者亲验真的能用,第一时间在原创发表,请继续往下阅读。近来小站遇到了盗链问题,至使网站的流量枉费流失,于是被迫准备为服务器安装防盗链机制以挽救本就不宽裕的带宽。通过G.CN和B.CN搜索后得出了几种不同的方案,例如网站程序的URL伪装法、服务器端的收费插件法和ISAPI-R…

    2022年7月23日
    26
  • dfile.encoding=utf-8 乱码_OrdosTF格式是什么格式

    dfile.encoding=utf-8 乱码_OrdosTF格式是什么格式解析ASN10x80问题所有X509证书都用一种ASN1格式,其为一种嵌套储存格式。ASN1规则繁琐,此文不说明,可以研究此链接。本文主要说明0x80问题,同事问起这问题,一时想不起来,现在在此备份。所有ASN1格式都是0x30开头,表示ASN1tag;0x82用来表示03C2的长度,先搁置;而03C2其用来表示后面数据长度,如下所示。308203C

    2025年11月2日
    6
  • 简述spark streaming的工作原理_电磁频谱优势战略

    简述spark streaming的工作原理_电磁频谱优势战略[转载] Spark Streaming 设计原理

    2022年4月21日
    52
  • @SuppressWarnings忽略警告

    @SuppressWarnings忽略警告简介 java lang SuppressWarn 是 J2SE5 0 中标准的 Annotation 之一 可以标注在类 字段 方法 参数 构造方法 以及局部变量上 作用 告诉编译器忽略指定的警告 不用在编译完成后出现警告信息 使用 SuppressWarn SuppressWarn SuppressWarn value 根据 sun 的官

    2026年3月18日
    1

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号