现在我有三张DGL异质图,train_g_data = { ('drug', 'interacts', 'drug'): (train_edge_idx[0], train_edge_idx[1]), ('drug', 'interacts_reverse', 'drug'): (train_edge_idx[1], train_edge_idx[0]), ('drug', 'acts_on', 'protein'): (drug_protein[0], drug_protein[1]), } train_g = dgl.heterograph(train_g_data),val_g和test_g也是类似的结构,图的特征也已经添加,请你用python写一段代码,用DGL中的graphSAGE模型训练,用以预测interacts的属性DDI_feat即药物相互作用分数,这是一个回归任务,并解释一下原理

时间: 2023-06-24 14:03:01 浏览: 218
首先,需要导入相关的库,包括DGL和PyTorch: ``` import dgl import torch import torch.nn as nn import dgl.function as fn from dgl.nn.pytorch import GraphConv, GATConv ``` 接下来就可以定义GraphSAGE模型了: ``` class GraphSAGE(nn.Module): def __init__(self, in_feats, out_feats, n_layers, activation, aggregator_type): super(GraphSAGE, self).__init__() self.n_layers = n_layers self.activation = activation self.layers = nn.ModuleList() self.aggregator_type = aggregator_type # input layer self.layers.append(GraphConv(in_feats, out_feats, aggregator_type=self.aggregator_type)) # hidden layers for i in range(1, n_layers): self.layers.append(GraphConv(out_feats, out_feats, aggregator_type=self.aggregator_type)) def forward(self, blocks, x): h = x for l, (layer, block) in enumerate(zip(self.layers, blocks)): h_dst = h[:block.number_of_dst_nodes()] h = layer(block, (h, h_dst)) if l != self.n_layers - 1: h = self.activation(h) return h ``` 这里我们定义了一个GraphSAGE类,包含输入特征的维度、输出特征的维度、隐藏层的数量、激活函数以及aggregator类型。在初始化函数中,我们定义了一个ModuleList,包含了所有的图卷积层。第一层的输入维度为in_feats,输出维度为out_feats,aggregator类型为我们在定义图时指定的类型;其他的隐藏层的输入和输出维度都为out_feats。 在forward函数中,我们首先将输入特征x赋值给h,然后依次对每一层进行计算。对于每一层,我们先将h切分成两部分,分别对应于当前block中的源节点和目标节点。然后对切分后的h进行图卷积操作,并将结果再次赋值给h。如果当前不是最后一层,我们还需要对h进行激活函数的处理。最后返回最后一层的结果h。 接下来,我们可以定义训练函数,包括数据加载、模型训练、模型评估等步骤: ``` def train(model, optimizer, loss_fn, train_loader, val_loader, device, epochs): best_val_loss = float('inf') best_model = None for epoch in range(epochs): model.train() train_loss = 0 for batch, data in enumerate(train_loader): subgraph, features, labels = data features = features.to(device) labels = labels.to(device) blocks = dgl.to_block(subgraph, subgraph.nodes()) output = model(blocks, features) loss = loss_fn(output.squeeze(), labels.float()) optimizer.zero_grad() loss.backward() optimizer.step() train_loss += loss.item() train_loss /= (batch + 1) val_loss = evaluate(model, loss_fn, val_loader, device) print('Epoch {:d} | Train Loss {:.4f} | Val Loss {:.4f}'.format(epoch+1, train_loss, val_loss)) if val_loss < best_val_loss: best_val_loss = val_loss best_model = model return best_model def evaluate(model, loss_fn, loader, device): model.eval() loss = 0 with torch.no_grad(): for batch, data in enumerate(loader): subgraph, features, labels = data features = features.to(device) labels = labels.to(device) blocks = dgl.to_block(subgraph, subgraph.nodes()) output = model(blocks, features) loss += loss_fn(output.squeeze(), labels.float()).item() return loss / (batch + 1) ``` 在训练函数中,我们首先定义了一个best_val_loss变量,用于记录最好的验证集误差和对应的模型。然后对于每个epoch,我们首先将模型设置为训练模式,然后遍历所有的训练数据,对于每个batch,我们首先将数据转移到设备上,然后将子图、特征和标签分别赋值给subgraph、features和labels变量。接下来,我们使用model对blocks和features进行计算,并计算loss。将梯度清零,执行反向传播和参数更新操作。最后,将该batch的loss加入train_loss中,并计算平均train_loss。 在每个epoch结束时,我们调用evaluate函数对模型进行验证集上的评估。在evaluate函数中,我们首先将模型设置为评估模式,然后遍历所有的验证数据,对于每个batch,我们首先将数据转移到设备上,然后将子图、特征和标签分别赋值给subgraph、features和labels变量。接下来,我们使用model对blocks和features进行计算,并计算loss。最后,将该batch的loss加入loss中,并计算平均loss。 接下来,我们可以加载数据集并进行训练: ``` from dgl.data.utils import load_graphs, save_graphs train_g, val_g, test_g = load_graphs('data.dgl') train_loader = dgl.dataloading.EdgeDataLoader(train_g, 'train', batch_size=1024, shuffle=True, drop_last=False) val_loader = dgl.dataloading.EdgeDataLoader(val_g, 'val', batch_size=1024, shuffle=False, drop_last=False) test_loader = dgl.dataloading.EdgeDataLoader(test_g, 'test', batch_size=1024, shuffle=False, drop_last=False) device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') model = GraphSAGE(256, 1, 2, nn.ReLU(), 'mean').to(device) optimizer = torch.optim.Adam(model.parameters(), lr=0.01) loss_fn = nn.MSELoss() best_model = train(model, optimizer, loss_fn, train_loader, val_loader, device, epochs=100) test_loss = evaluate(best_model, loss_fn, test_loader, device) print('Test Loss {:.4f}'.format(test_loss)) ``` 在加载数据集时,我们使用load_graphs函数从指定路径加载三张图,分别对应于训练集、验证集和测试集。接下来,我们使用EdgeDataLoader对训练集、验证集和测试集进行数据加载。我们使用cuda进行训练,如果不可用则使用cpu。接下来,我们定义了一个GraphSAGE模型,优化器和损失函数。然后调用train函数进行训练,并使用evaluate函数在测试集上进行评估。最后输出测试集的loss。 GraphSAGE模型的原理是通过对每个节点的邻居节点进行聚合,来生成每个节点的特征表示。在模型训练中,我们首先将每个子图切分成源节点和目标节点,然后对源节点和目标节点分别进行图卷积操作,得到它们的特征表示。接下来,我们对源节点和目标节点进行聚合,得到每个节点的邻居节点的特征表示。最后,我们将源节点和目标节点进行拼接,并将结果传递给下一层进行计算。在每一层中,我们还可以使用不同的聚合方式,例如mean、max或LSTM等。
阅读全文

相关推荐

程序提示AttributeError: 'ImageThread' object has no attribute '_dgl',优化程序 def __init__(self, pipeline, color_label, depth_label, interval, color_photo_dir, depth_photo_dir): super().__init__() self.pipeline = pipeline self.color_label = color_label self.depth_label = depth_label self.is_running = True self.interval = interval self.color_photo_dir = color_photo_dir self.depth_photo_dir = depth_photo_dir self.saved_color_photos = 0 self.saved_depth_photos = 0 def save_photo(self, color_image, depth_image): # 保存彩色图和深度图 filename = datetime.datetime.now().strftime("%Y-%m-%d-%H-%M-%S-{}.bmp".format(self.saved_color_photos)) color_image.save(os.path.join(self.color_photo_dir, filename), "BMP") depth_image.save(os.path.join(self.depth_photo_dir, filename), "BMP") # print(self.color_photo_dir) # 更新已保存照片数量标签 self.saved_color_photos += 1 self.saved_depth_photos += 1 self.saved_color_photos_signal.emit(self.saved_color_photos) self.saved_depth_photos_signal.emit(self.saved_depth_photos) def run(self): ROT = 3 while self.is_running: # 从相机获取彩色图和深度图 frames = self.pipeline.wait_for_frames() color_frame = frames.get_color_frame() depth_frame = frames.get_depth_frame() depth_image = np.asanyarray(depth_frame.get_data()) color_image = np.asanyarray(color_frame.get_data()) # 转换成 Qt 图像格式 depth_colormap = cv2.applyColorMap(cv2.convertScaleAbs(depth_image, alpha=0.03), cv2.COLORMAP_JET) # 将深度图像转换为伪彩色图像 color_image = QImage(color_image, color_image.shape[1], color_image.shape[0], color_image.shape[1] * 3, QImage.Format_RGB888) depth_colormap = QImage(depth_colormap, depth_colormap.shape[1], depth_colormap.shape[0], depth_colormap.shape[1] * 3, QImage.Format_RGB888) # 显示图像 self.color_label.setPixmap(QPixmap.fromImage(color_image)) self.depth_label.setPixmap(QPixmap.fromImage(depth_colormap)) v = self._dgl.qpin(ROT) if len(v) > 0: self._count += sum(v) if self._count > self._inspect_step: self.save_photo(color_image, depth_colormap) self._count -= self._inspect_step

import dgl import numpy as np import torch import torch.nn as nn import dgl.function as fn # 生成10个节点和15条边的图 g = dgl.rand_graph(10, 15) # 为每个节点随机生成一个特征向量 feat = np.random.rand(10, 5) # 为每条边随机生成一个特征向量 e_feat = np.random.rand(15, 3) # 将特征向量添加到图中 g.ndata['feat'] = torch.from_numpy(feat) g.edata['e_feat'] =torch.from_numpy(e_feat) # 随机给每个节点分配一个标签 labels = np.random.randint(0, 3, size=(10,)) g.ndata['label'] = torch.from_numpy(labels) class GraphSAGE(nn.Module): def __init__(self, in_feats, h_feats, num_classes): super(GraphSAGE, self).__init__() self.conv1 = dgl.nn.SAGEConv(in_feats, h_feats, 'mean') self.conv2 = dgl.nn.SAGEConv(h_feats, num_classes, 'mean') def forward(self, g, in_feat): h = self.conv1(g, in_feat) h = torch.relu(h) h = self.conv2(g, h) g.ndata['h'] = h hg = dgl.mean_nodes(g, 'h') return hg # 定义超参数 in_feats = 5 h_feats = 10 num_classes = 3 lr = 0.01 num_epochs = 20 # 创建模型和优化器 model = GraphSAGE(in_feats, h_feats, num_classes) optimizer = torch.optim.Adam(model.parameters(), lr=lr) # 训练模型 for epoch in range(num_epochs): logits = model(g, g.ndata['feat']) labels = g.ndata['label'] loss = nn.CrossEntropyLoss()(logits, labels) optimizer.zero_grad() loss.backward() optimizer.step() print('Epoch %d | Loss: %.4f' % (epoch, loss.item())) # 预测 model.eval() with torch.no_grad(): logits = model(g, g.ndata['feat']) pred = logits.argmax(1) print('Predicted labels:', pred) 报错:RuntimeError: expected scalar type Double but found Float

最新推荐

recommend-type

Alibaba-Dragonwell-Standard-21.0.4.0.4.7-aarch64-linux.tar

基于OpenJDK开发的开源JDK,支持国内环境加密 解决maven下载不了,提示加解密失败的问题 Alibaba_Dragonwell_Standard_21.0.4.0.4.7_aarch64_linux.tar
recommend-type

【Unity游戏框架】Prodigy Game Framework快速搭建游戏原型

文件名:Prodigy Game Framework_22.6.2 (20 Jun 2022).unitypackage Prodigy Game Framework 是一个强大的 Unity 游戏框架插件,专门为需要快速搭建游戏原型的开发者设计,适用于多种类型的游戏项目。它不仅包含大量核心系统,还提供了一些通用的游戏功能模块,帮助开发者加快游戏开发进度,同时保持代码和架构的灵活性。以下是 Prodigy Game Framework 的主要特点和功能: 1. 模块化游戏框架 Prodigy Game Framework 提供了模块化的游戏架构,允许开发者根据需求添加或移除不同功能模块。每个模块都是独立的,便于管理和扩展。 框架经过精心设计,以适应各种类型的游戏项目,从单人冒险到多人联网游戏都能轻松实现。 2. 场景管理 插件带有场景管理工具,可以轻松管理场景加载、卸载以及跨场景的数据传递,保证游戏的流畅切换。 支持场景内存优化、异步加载和场景过渡效果,有助于在不同平台上实现最佳性能。 3. 任务与成就系统 内置的任务系统可以让开发者为游戏添加多样化的任务,比如主线任务..
recommend-type

BottleJS快速入门:演示JavaScript依赖注入优势

资源摘要信息:"BottleJS是一个轻量级的依赖项注入容器,用于JavaScript项目中,旨在减少导入依赖文件的数量并优化代码结构。该项目展示BottleJS在前后端的应用,并通过REST API演示其功能。" BottleJS Playgound 概述: BottleJS Playgound 是一个旨在演示如何在JavaScript项目中应用BottleJS的项目。BottleJS被描述为JavaScript世界中的Autofac,它是依赖项注入(DI)容器的一种实现,用于管理对象的创建和生命周期。 依赖项注入(DI)的基本概念: 依赖项注入是一种设计模式,允许将对象的依赖关系从其创建和维护的代码中分离出来。通过这种方式,对象不会直接负责创建或查找其依赖项,而是由外部容器(如BottleJS)来提供这些依赖项。这样做的好处是降低了模块间的耦合,提高了代码的可测试性和可维护性。 BottleJS 的主要特点: - 轻量级:BottleJS的设计目标是尽可能简洁,不引入不必要的复杂性。 - 易于使用:通过定义服务和依赖关系,BottleJS使得开发者能够轻松地管理大型项目中的依赖关系。 - 适合前后端:虽然BottleJS最初可能是为前端设计的,但它也适用于后端JavaScript项目,如Node.js应用程序。 项目结构说明: 该仓库的src目录下包含两个子目录:sans-bottle和bottle。 - sans-bottle目录展示了传统的方式,即直接导入依赖并手动协调各个部分之间的依赖关系。 - bottle目录则使用了BottleJS来管理依赖关系,其中bottle.js文件负责定义服务和依赖关系,为项目提供一个集中的依赖关系源。 REST API 端点演示: 为了演示BottleJS的功能,该项目实现了几个简单的REST API端点。 - GET /users:获取用户列表。 - GET /users/{id}:通过给定的ID(范围0-11)获取特定用户信息。 主要区别在用户路由文件: 该演示的亮点在于用户路由文件中,通过BottleJS实现依赖关系的注入,我们可以看到代码的组织和结构比传统方式更加清晰和简洁。 BottleJS 和其他依赖项注入容器的比较: - BottleJS相比其他依赖项注入容器如InversifyJS等,可能更轻量级,专注于提供基础的依赖项管理和注入功能。 - 它的设计更加直接,易于理解和使用,尤其适合小型至中型的项目。 - 对于需要高度解耦和模块化的大规模应用,可能需要考虑BottleJS以外的解决方案,以提供更多的功能和灵活性。 在JavaScript项目中应用依赖项注入的优势: - 可维护性:通过集中管理依赖关系,可以更容易地理解和修改应用的结构。 - 可测试性:依赖项的注入使得创建用于测试的mock依赖关系变得简单,从而方便单元测试的编写。 - 模块化:依赖项注入鼓励了更好的模块化实践,因为模块不需关心依赖的来源,只需负责实现其定义的接口。 - 解耦:模块之间的依赖关系被清晰地定义和管理,减少了直接耦合。 总结: BottleJS Playgound 项目提供了一个生动的案例,说明了如何在JavaScript项目中利用依赖项注入模式改善代码质量。通过该项目,开发者可以更深入地了解BottleJS的工作原理,以及如何将这一工具应用于自己的项目中,从而提高代码的可维护性、可测试性和模块化程度。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【版本控制】:R语言项目中Git与GitHub的高效应用

![【版本控制】:R语言项目中Git与GitHub的高效应用](https://opengraph.githubassets.com/2abf032294b9f2a415ddea58f5fde6fcb018b57c719dfc371bf792c251943984/isaacs/github/issues/37) # 1. 版本控制与R语言的融合 在信息技术飞速发展的今天,版本控制已成为软件开发和数据分析中不可或缺的环节。特别是对于数据科学的主流语言R语言,版本控制不仅帮助我们追踪数据处理的历史,还加强了代码共享与协作开发的效率。R语言与版本控制系统的融合,特别是与Git的结合使用,为R语言项
recommend-type

RT-DETR如何实现在实时目标检测中既保持精度又降低计算成本?请提供其技术实现的详细说明。

为了理解RT-DETR如何在实时目标检测中保持精度并降低计算成本,我们必须深入研究其架构优化和技术细节。RT-DETR通过融合CNN与Transformer的优势,提出了一种混合编码器结构,这种结构采用了尺度内交互(AIFI)和跨尺度融合(CCFM)策略来提取和融合多尺度图像特征,这些特征能够提供丰富的视觉上下文信息,从而提升了模型的检测精度。 参考资源链接:[RT-DETR:实时目标检测中的新胜者](https://wenku.csdn.net/doc/1ehyj4a8z2?spm=1055.2569.3001.10343) 在编码器阶段,RT-DETR使用主干网络提取图像特征,然后通过
recommend-type

vConsole插件使用教程:输出与复制日志文件

资源摘要信息:"vconsole-outputlog-plugin是一个JavaScript插件,它能够在vConsole环境中输出日志文件,并且支持将日志复制到剪贴板或下载。vConsole是一个轻量级、可扩展的前端控制台,通常用于移动端网页的调试。该插件的安装依赖于npm,即Node.js的包管理工具。安装完成后,通过引入vConsole和vConsoleOutputLogsPlugin来初始化插件,之后即可通过vConsole输出的console打印信息进行日志的复制或下载操作。这在进行移动端调试时特别有用,可以帮助开发者快速获取和分享调试信息。" 知识点详细说明: 1. vConsole环境: vConsole是一个专为移动设备设计的前端调试工具。它模拟了桌面浏览器的控制台,并添加了网络请求、元素选择、存储查看等功能。vConsole可以独立于原生控制台使用,提供了一个更为便捷的方式来监控和调试Web页面。 2. 日志输出插件: vconsole-outputlog-plugin是一个扩展插件,它增强了vConsole的功能,使得开发者不仅能够在vConsole中查看日志,还能将这些日志方便地输出、复制和下载。这样的功能在移动设备上尤为有用,因为移动设备的控制台通常不易于使用。 3. npm安装: npm(Node Package Manager)是Node.js的包管理器,它允许用户下载、安装、管理各种Node.js的包或库。通过npm可以轻松地安装vconsole-outputlog-plugin插件,只需在命令行执行`npm install vconsole-outputlog-plugin`即可。 4. 插件引入和使用: - 首先创建一个vConsole实例对象。 - 然后创建vConsoleOutputLogsPlugin对象,它需要一个vConsole实例作为参数。 - 使用vConsole对象的实例,就可以在其中执行console命令,将日志信息输出到vConsole中。 - 插件随后能够捕获这些日志信息,并提供复制到剪贴板或下载的功能。 5. 日志操作: - 复制到剪贴板:在vConsole界面中,通常会有“复制”按钮,点击即可将日志信息复制到剪贴板,开发者可以粘贴到其他地方进行进一步分析或分享。 - 下载日志文件:在某些情况下,可能需要将日志信息保存为文件,以便离线查看或作为报告的一部分。vconsole-outputlog-plugin提供了将日志保存为文件并下载的功能。 6. JavaScript标签: 该插件是使用JavaScript编写的,因此它与JavaScript紧密相关。JavaScript是一种脚本语言,广泛用于网页的交互式内容开发。此插件的开发和使用都需要一定的JavaScript知识,包括对ES6(ECMAScript 2015)版本规范的理解和应用。 7. 压缩包子文件: vconsole-outputlog-plugin-main文件名可能是指该插件的压缩包或分发版本,通常包含插件的源代码、文档和可能的配置文件。开发者可以通过该文件名在项目中正确地引用和使用插件。 通过掌握这些知识点,开发者可以有效地在vConsole环境中使用vconsole-outputlog-plugin插件,提高移动端网页的调试效率和体验。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【自然语言处理】:R语言文本挖掘与情感分析入门指南

![【自然语言处理】:R语言文本挖掘与情感分析入门指南](https://wisdomml.in/wp-content/uploads/2022/08/tokenizer-1024x512.jpg) # 1. 自然语言处理和R语言基础 自然语言处理(NLP)是计算机科学和人工智能领域的一个分支,旨在让计算机能够理解人类语言。随着大数据时代的到来,NLP在文本分析、信息检索、语音识别等方面的应用变得越来越广泛。R语言作为一种开源的统计编程语言,具有强大的数据处理和可视化功能,它在NLP领域的应用也越来越受到重视。本章将带领读者了解自然语言处理的基础知识,以及R语言在处理语言数据时的基本语法和功
recommend-type

智能衣柜的设计中是如何应用嵌入式系统与物联网技术实现个性化定制的?

智能衣柜作为家居智能化的重要分支,其设计理念的核心在于利用先进的嵌入式系统和物联网技术来优化用户体验。嵌入式系统作为智能衣柜的“大脑”,承担着数据处理、存储和决策的角色。通过在衣柜中集成传感器、微控制器和通信模块,嵌入式系统能够实现对衣物存储环境的实时监控,并根据衣物类型、使用频率等因素智能分配存储空间。 参考资源链接:[智能衣柜:现状、发展趋势与未来创新](https://wenku.csdn.net/doc/uty55wcr9r?spm=1055.2569.3001.10343) 物联网技术的应用,则使智能衣柜能够通过网络连接到用户的智能设备,如智能手机或平板电脑,实现远程监控和管理。