pytorch实现图神经网络gnn代码

时间: 2023-05-31 20:19:08 浏览: 521
### 回答1: Graph Neural Network(GNN)是一种神经网络,能够处理输入数据为图的情况。PyTorch是一个非常流行的深度学习框架,可以用来实现GNN。 在PyTorch中,可以使用dgl(Deep Graph Library)来实现GNN。首先,需要将图数据转化为dgl的Graph对象,并对Graph对象进行一些预处理。然后,可以定义模型的网络结构,包括使用不同类型的层、激活函数等。最后,将数据输入模型,并对模型进行训练或测试。下面是一个基本的PyTorch GNN代码框架: import dgl import torch import torch.nn as nn class GNN(nn.Module): def __init__(self, in_dim, hidden_dim, out_dim, n_layers): super(GNN, self).__init__() self.layers = nn.ModuleList() self.layers.append(nn.Linear(in_dim, hidden_dim)) for i in range(n_layers - 2): self.layers.append(nn.Linear(hidden_dim, hidden_dim)) self.layers.append(nn.Linear(hidden_dim, out_dim)) def forward(self, g): h = g.ndata['feature'] for i, layer in enumerate(self.layers): h = layer(g, h) if i != len(self.layers) - 1: h = nn.functional.relu(h) return h # create graph g = dgl.DGLGraph() g.add_nodes(num_nodes) g.add_edges(u, v) # prepare data g.ndata['feature'] = feature g.ndata['label'] = label # create model model = GNN(in_dim, hidden_dim, out_dim, n_layers) # train model optimizer = torch.optim.Adam(model.parameters()) criterion = nn.CrossEntropyLoss() for epoch in range(num_epochs): optimizer.zero_grad() logits = model(g) loss = criterion(logits, g.ndata['label']) loss.backward() optimizer.step() # test model model.eval() with torch.no_grad(): logits = model(g) result = compute_result(logits, g.ndata['label']) 这个代码框架可以用于实现很多不同类型的GNN,包括GCN、GAT、GraphSAGE等。要根据具体情况调整模型的参数和架构,以获得最好的结果。 ### 回答2: PyTorch是一个开源的机器学习库,它提供了很多实现深度学习模型的工具,包括图神经网络(GNN)。对于GNN,PyTorch的DGL库是非常好的选择。DGL是一个用于图神经网络的Python库,由华盛顿大学、纽约大学和北京大学开发。它提供了灵活的API,可以用于实现各种类型的图神经网络模型,包括GCN、GAT、GraphSAGE等。 在使用DGL实现GNN时,首先需要构建一个Python类来定义模型。这个类应该继承自DGL中的GraphConv模块,并在__init__函数中定义图卷积层(GraphConv),并定义forward函数。forward函数中需要将图连通性和节点特征传递给图卷积层,并将结果返回。 代码示例: ```python import torch import dgl import dgl.function as fn import torch.nn as nn import torch.nn.functional as F class GCN(nn.Module): def __init__(self, in_feats, h_feats, num_classes): super(GCN, self).__init__() self.conv1 = dgl.nn.GraphConv(in_feats, h_feats) self.conv2 = dgl.nn.GraphConv(h_feats, num_classes) def forward(self, g, inputs): h = self.conv1(g, inputs) h = F.relu(h) h = self.conv2(g, h) return h ``` 上面的代码定义了一个简单的两层GCN模型,输入特征的维度为in_feats,输出特征的维度为num_classes,隐藏层的维度为h_feats。 在构建模型之后,我们需要使用PyTorch的DataLoader来将数据加载到我们的模型中。在将数据加载到模型中后,我们可以使用PyTorch自带的优化器来训练我们的模型。模型的训练过程和其他深度学习模型的训练过程相似,唯一的区别是我们需要考虑图结构。 需要注意的是,在图结构不变的情况下,我们可以将节点特征和边权重存储在DGL图数据结构中,这不仅可以加快计算过程,还可以更好地利用GPU进行并行计算。如果图结构发生了变化,我们需要重新构建图结构并进行计算。 总之,在使用PyTorch实现GNN时,我们可以使用DGL库来简化模型的实现和数据的处理。通过Python的面向对象编程,可以方便地对节点和边进行操作,并使用PyTorch的自动微分功能进行模型训练。 ### 回答3: 图神经网络(GNN)是一种用于处理图数据的深度学习模型。随着近年来图数据的广泛应用,图神经网络也越来越受到关注。PyTorch是一种广泛使用的深度学习框架,其灵活性和易用性使其成为实现GNN模型的优秀选择。 以下是一个基于PyTorch实现的GNN代码示例: ```python import torch import torch.nn as nn import torch.optim as optim class GraphConvLayer(nn.Module): def __init__(self, input_dim, output_dim): super(GraphConvLayer, self).__init__() self.linear = nn.Linear(input_dim, output_dim) def forward(self, X, A): X = self.linear(X) X = torch.matmul(A, X) return X class GraphNet(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super(GraphNet, self).__init__() self.conv1 = GraphConvLayer(input_dim, hidden_dim) self.conv2 = GraphConvLayer(hidden_dim, hidden_dim) self.linear = nn.Linear(hidden_dim, output_dim) def forward(self, X, A): X = self.conv1(X, A) X = torch.relu(X) X = self.conv2(X, A) X = torch.relu(X) X = self.linear(X) return X # 构造模型和数据 input_dim = 10 hidden_dim = 16 output_dim = 2 model = GraphNet(input_dim, hidden_dim, output_dim) X = torch.randn(32, input_dim) A = torch.randn(32, 32) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters()) # 训练模型 for epoch in range(100): optimizer.zero_grad() output = model(X, A) loss = criterion(output, target) loss.backward() optimizer.step() # 测试模型 X_test = torch.randn(16, input_dim) A_test = torch.randn(16, 16) output_test = model(X_test, A_test) ``` 上面的代码实现了一个有两个GraphConvLayer层的GNN模型。模型输入为一个特征矩阵X和邻接矩阵A,输出为一个预测标签。在训练过程中使用交叉熵损失函数和Adam优化器来优化模型。在测试时,可以使用新的输入和邻接矩阵来进行预测。 需要注意的是,该示例仅仅是个简单示例,实际的GNN模型可能更加复杂并具有更强的表达能力。因此,为了训练高质量的GNN模型,还需要加强对图数据和深度学习的理解,并熟练使用PyTorch等深度学习框架。

相关推荐

rar
人工智能(AI)最近经历了复兴,在视觉,语言,控制和决策等关键领域取得了重大进展。 部分原因在于廉价数据和廉价计算资源,这些资源符合深度学习的自然优势。 然而,在不同的压力下发展的人类智能的许多定义特征仍然是当前方法无法实现的。 特别是,超越一个人的经验 - 从婴儿期开始人类智能的标志 - 仍然是现代人工智能的一项艰巨挑战。 以下是部分立场文件,部分审查和部分统一。我们认为组合概括必须是AI实现类似人类能力的首要任务,结构化表示和计算是实现这一目标的关键。就像生物学利用自然和培养合作一样,我们拒绝“手工工程”和“端到端”学习之间的错误选择,而是倡导一种从其互补优势中获益的方法。我们探索如何在深度学习架构中使用关系归纳偏差来促进对实体,关系和组成它们的规则的学习。我们为AI工具包提供了一个新的构建模块,具有强大的关系归纳偏差 - 图形网络 - 它概括和扩展了在图形上运行的神经网络的各种方法,并为操纵结构化知识和生成结构化行为提供了直接的界面。我们讨论图网络如何支持关系推理和组合泛化,为更复杂,可解释和灵活的推理模式奠定基础。作为本文的配套文件,我们还发布了一个用于构建图形网络的开源软件库,并演示了如何在实践中使用它们。
zip
# GPF ## 一、GPF(Graph Processing Flow):利用图神经网络处理问题的一般化流程 1、图节点预表示:利用NE框架,直接获得全图每个节点的Embedding; 2、正负样本采样:(1)单节点样本;(2)节点对样本; 3、抽取封闭子图:可做类化处理,建立一种通用图数据结构; 4、子图特征融合:预表示、节点特征、全局特征、边特征; 5、网络配置:可以是图输入、图输出的网络;也可以是图输入,分类/聚类结果输出的网络; 6、训练和测试; ## 二、主要文件: 1、graph.py:读入图数据; 2、embeddings.py:预表示学习; 3、sample.py:采样; 4、subgraphs.py/s2vGraph.py:抽取子图; 5、batchgraph.py:子图特征融合; 6、classifier.py:网络配置; 7、parameters.py/until.py:参数配置/帮助文件; ## 三、使用 1、在parameters.py中配置相关参数(可默认); 2、在example/文件夹中运行相应的案例文件--包括链接预测、节点状态预测; 以链接预测为例: ### 1、导入配置参数 from parameters import parser, cmd_embed, cmd_opt ### 2、参数转换 args = parser.parse_args() args.cuda = not args.noCuda and torch.cuda.is_available() torch.manual_seed(args.seed) if args.cuda: torch.cuda.manual_seed(args.seed) if args.hop != 'auto': args.hop = int(args.hop) if args.maxNodesPerHop is not None: args.maxNodesPerHop = int(args.maxNodesPerHop) ### 3、读取数据 g = graph.Graph() g.read_edgelist(filename=args.dataName, weighted=args.weighted, directed=args.directed) g.read_node_status(filename=args.labelName) ### 4、获取全图节点的Embedding embed_args = cmd_embed.parse_args() embeddings = embeddings.learn_embeddings(g, embed_args) node_information = embeddings #print node_information ### 5、正负节点采样 train, train_status, test, test_status = sample.sample_single(g, args.testRatio, max_train_num=args.maxTrainNum) ### 6、抽取节点对的封闭子图 net = until.nxG_to_mat(g) #print net train_graphs, test_graphs, max_n_label = subgraphs.singleSubgraphs(net, train, train_status, test, test_status, args.hop, args.maxNodesPerHop, node_information) print('# train: %d, # test: %d' % (len(train_graphs), len(test_graphs))) ### 7、加载网络模型,并在classifier中配置相关参数 cmd_args = cmd_opt.parse_args() cmd_args.feat_dim = max_n_label + 1 cmd_args.attr_dim = node_information.shape[1] cmd_args.latent_dim = [int(x) for x in cmd_args.latent_dim.split('-')] if len(cmd_args.latent_dim) == 1: cmd_args.latent_dim = cmd_args.latent_dim[0] model = classifier.Classifier(cmd_args) optimizer = optim.Adam(model.parameters(), lr=args.learningRate) ### 8、训练和测试 train_idxes = list(range(len(train_graphs))) best_loss = None for epoch in range(args.num_epochs): random.shuffle(train_idxes) model.train() avg_loss = loop_dataset(train_graphs, model, train_idxes, cmd_args.batch_size, optimizer=optimizer) print('\033[92maverage training of epoch %d: loss %.5f acc %.5f auc %.5f\033[0m' % (epoch, avg_loss[0], avg_loss[1], avg_loss[2])) model.eval() test_loss = loop_dataset(test_graphs, model, list(range(len(test_graphs))), cmd_args.batch_size) print('\033[93maverage test of epoch %d: loss %.5f acc %.5f auc %.5f\033[0m' % (epoch, test_loss[0], test_loss[1], test_loss[2])) ### 9、运行结果 average test of epoch 0: loss 0.62392 acc 0.71462 auc 0.72314 loss: 0.51711 acc: 0.80000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 10.09batch/s] average training of epoch 1: loss 0.54414 acc 0.76895 auc 0.77751 loss: 0.37699 acc: 0.79167: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 34.07batch/s] average test of epoch 1: loss 0.51981 acc 0.78538 auc 0.79709 loss: 0.43700 acc: 0.84000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.64batch/s] average training of epoch 2: loss 0.49896 acc 0.79184 auc 0.82246 loss: 0.63594 acc: 0.66667: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 2: loss 0.48979 acc 0.79481 auc 0.83416 loss: 0.57502 acc: 0.76000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.70batch/s] average training of epoch 3: loss 0.50005 acc 0.77447 auc 0.79622 loss: 0.38903 acc: 0.75000: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 34.03batch/s] average test of epoch 3: loss 0.41463 acc 0.81132 auc 0.86523 loss: 0.54336 acc: 0.76000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.57batch/s] average training of epoch 4: loss 0.44815 acc 0.81711 auc 0.84530 loss: 0.44784 acc: 0.70833: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 4: loss 0.48319 acc 0.81368 auc 0.84454 loss: 0.36999 acc: 0.88000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 10.17batch/s] average training of epoch 5: loss 0.39647 acc 0.84184 auc 0.89236 loss: 0.15548 acc: 0.95833: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 5: loss 0.30881 acc 0.89623 auc 0.95132

最新推荐

2023年中国辣条食品行业创新及消费需求洞察报告.pptx

随着时间的推移,中国辣条食品行业在2023年迎来了新的发展机遇和挑战。根据《2023年中国辣条食品行业创新及消费需求洞察报告》,辣条食品作为一种以面粉、豆类、薯类等原料为基础,添加辣椒、调味料等辅料制成的食品,在中国市场拥有着广阔的消费群体和市场潜力。 在行业概述部分,报告首先介绍了辣条食品的定义和分类,强调了辣条食品的多样性和口味特点,满足消费者不同的口味需求。随后,报告回顾了辣条食品行业的发展历程,指出其经历了从传统手工制作到现代化机械生产的转变,市场规模不断扩大,产品种类也不断增加。报告还指出,随着消费者对健康饮食的关注增加,辣条食品行业也开始向健康、营养的方向发展,倡导绿色、有机的生产方式。 在行业创新洞察部分,报告介绍了辣条食品行业的创新趋势和发展动向。报告指出,随着科技的不断进步,辣条食品行业在生产工艺、包装设计、营销方式等方面都出现了新的创新,提升了产品的品质和竞争力。同时,报告还分析了未来可能出现的新产品和新技术,为行业发展提供了新的思路和机遇。 消费需求洞察部分则重点关注了消费者对辣条食品的需求和偏好。报告通过调查和分析发现,消费者在选择辣条食品时更加注重健康、营养、口味的多样性,对产品的品质和安全性提出了更高的要求。因此,未来行业需要加强产品研发和品牌建设,提高产品的营养价值和口感体验,以满足消费者不断升级的需求。 在市场竞争格局部分,报告对行业内主要企业的市场地位、产品销量、市场份额等进行了分析比较。报告发现,中国辣条食品行业竞争激烈,主要企业之间存在着激烈的价格战和营销竞争,产品同质化严重。因此,企业需要加强品牌建设,提升产品品质,寻求差异化竞争的突破口。 最后,在行业发展趋势与展望部分,报告对未来辣条食品行业的发展趋势进行了展望和预测。报告认为,随着消费者对健康、有机食品的需求增加,辣条食品行业将进一步向健康、营养、绿色的方向发展,加强与农业合作,推动产业升级。同时,随着科技的不断进步,辣条食品行业还将迎来更多的创新和发展机遇,为行业的持续发展注入新的动力。 综上所述,《2023年中国辣条食品行业创新及消费需求洞察报告》全面深入地分析了中国辣条食品行业的发展现状、创新动向和消费需求,为行业的未来发展提供了重要的参考和借鉴。随着消费者消费观念的不断升级和科技的持续发展,中国辣条食品行业有望迎来更加广阔的发展空间,实现可持续发展和行业繁荣。

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire

学习率衰减策略及调参技巧:在CNN中的精准应用指南

# 1. 学习率衰减策略概述 学习率衰减是深度学习中常用的优化技巧,旨在调整模型训练时的学习率,以提高模型性能和收敛速度。在训练迭代过程中,通过逐步减小学习率的数值,模型在接近收敛时可以更精细地调整参数,避免在局部最优点处震荡。学习率衰减策略种类繁多,包括固定衰减率、指数衰减、阶梯衰减和余弦衰减等,每种方法都有适用的场景和优势。掌握不同学习率衰减策略,可以帮助深度学习从业者更好地训练和调优模型。 # 2. 深入理解学习率衰减 学习率衰减在深度学习中扮演着重要的角色,能够帮助模型更快地收敛,并提高训练效率和泛化能力。在本章节中,我们将深入理解学习率衰减的基本概念、原理以及常见方法。 ##

如何让restTemplate call到一个mock的数据

要使用 `RestTemplate` 调用一个模拟的数据,你可以使用 `MockRestServiceServer` 类来模拟服务端的响应。下面是一个示例代码: ```java import org.springframework.http.HttpMethod; import org.springframework.http.HttpStatus; import org.springframework.http.MediaType; import org.springframework.http.ResponseEntity; import org.springframework.test

2023年半导体行业20强品牌.pptx

2023年半导体行业20强品牌汇报人文小库于2024年1月10日提交了《2023年半导体行业20强品牌》的报告,报告内容主要包括品牌概述、产品线分析、技术创新、市场趋势和品牌策略。根据报告显示的数据和分析,可以看出各品牌在半导体行业中的综合实力和发展情况。 在品牌概述部分,文小库对2023年半导体行业20强品牌进行了排名,主要根据市场份额、技术创新能力和品牌知名度等多个指标进行评估。通过综合评估,得出了各品牌在半导体行业中的排名,并分析了各品牌的市场份额变化情况,了解了各品牌在市场中的竞争态势和发展趋势。此外,还对各品牌的品牌影响力进行了分析,包括对行业发展的推动作用和对消费者的影响力等方面进行评估,从品牌知名度和品牌价值两个维度来评判各品牌的实力。 在产品线分析部分,报告详细描述了微处理器在半导体行业中的核心地位,这是主要应用于计算机、手机、平板等智能终端设备中的关键产品。通过对产品线进行详细分析,可以了解各品牌在半导体领域中的产品布局和市场表现,为后续的市场策略制定提供了重要的参考信息。 在技术创新方面,报告也对各品牌在技术创新方面的表现进行了评估,这是半导体行业发展的关键驱动力之一。通过分析各品牌在技术研发、产品设计和生产制造等方面的创新能力,可以评判各品牌在未来发展中的竞争优势和潜力,为品牌策略的制定提供重要依据。 在市场趋势和品牌策略方面,报告分析了半导体行业的发展趋势和竞争格局,为各品牌制定市场策略和品牌推广提供了重要参考。针对未来市场发展的趋势,各品牌需要不断加强技术创新、提升品牌影响力,以及制定有效的市场推广策略,来保持在行业中的竞争优势。 综上所述,在2023年半导体行业20强品牌报告中,通过对各品牌的综合排名、产品线分析、技术创新、市场趋势和品牌策略等方面的评估和分析,展现了各品牌在半导体行业中的实力和发展状态,为半导体行业的未来发展提供了重要的参考和指导。

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依

量化与剪枝技术在CNN模型中的神奇应用及效果评估

![量化与剪枝技术在CNN模型中的神奇应用及效果评估](https://img-blog.csdnimg.cn/34b16fbb2b55412189fa4338f334e842.png) # 1. 量化与剪枝技术在CNN模型中的概览 在深度学习领域,量化与剪枝技术作为优化模型的重要手段,近年来备受关注。量化技术主要通过减少模型参数的位数,降低模型的计算复杂度,进而提升模型的推理速度。而剪枝技术则通过去除冗余的连接和神经元,减小模型的规模,提高模型的泛化能力和效率。本章将对这两项技术进行综述,为后续章节的深入探讨奠定基础。 # 2. 深入理解量化技术 ### 2.1 量化技术概述 量化技术

已知某一单位向量,现需将坐标轴z轴旋转到该单位向量方向,求旋转映射矩阵

旋转映射矩阵可以通过以下步骤得到: 1. 首先,找到单位向量所在的旋转平面。这个平面由单位向量和一个垂直于它的向量确定。我们可以选择任意一个垂直于单位向量的向量作为旋转平面的法向量。 2. 使用单位向量和选择的法向量来构建一个正交基。这可以通过将单位向量和法向量归一化,并使用叉乘来得到第三个正交向量。 3. 将构建的正交基作为列向量组成一个旋转矩阵。 举例来说,假设单位向量为 v = [x, y, z]。我们可以选择法向量为 [1, 0, 0](如果 v 和 x 轴平行,则选择 [0, 1, 0])。然后,通过叉乘计算第三个正交向量 n = v × [1, 0, 0]。 然后,我们将

2023年全球电力行业评论.pptx

2023年全球电力行业评论汇报人:文小库 在2023年全球电力行业概述方面,全球电力行业规模不断扩大,并保持稳定增长。随着经济的发展和人口的增长,电力需求持续攀升。特别是在新兴市场国家,电力需求增长较快。全球电力行业结构多样化,包括国有电力企业、私有电力企业以及合作社等模式。为了确保电力供应的稳定和安全,电力行业运营高度复杂,需要建设和维护庞大的电网系统。 在未来发展趋势方面,可再生能源、智能电网、电力储存等技术的发展将推动全球电力行业朝着清洁化、智能化的方向发展。随着环保意识的提高和科技的进步,可再生能源有望逐渐成为全球电力行业的主导能源,引起电力行业更加注重能源的可持续性和环保性。 2013年各国电力行业发展状况中,美国电力行业在2023年保持稳定增长,总发电量达到4.5万亿千瓦时,同比增长2.3%。美国加大了对清洁能源的投资,特别是在太阳能和风能方面取得了很大进展。中国电力行业在2023年也保持了良好的增长势头,尤其在可再生能源领域取得了显著进展。印度电力行业在2023年也呈现出快速增长的态势,特别是在智能电网建设和电力储存技术方面取得了突破。 全球电力市场分析方面,各国电力市场呈现出多样化的特点,随着能源结构调整和技术创新的不断推动,电力市场竞争日趋激烈。全球电力行业政策与法规方面,各国纷纷出台了促进可再生能源发展和减少碳排放的政策措施,以应对气候变化和环境污染等挑战。 在技术创新与进步方面,全球电力行业在2023年取得了显著的进展,尤其是在智能电网、电力储存、电动车充电技术等领域取得了重大突破。这些技术的发展将为电力行业转型升级提供重要支撑,推动电力行业向着更加清洁、智能和高效的方向发展。 总的来看,全球电力行业面临着诸多挑战和机遇。在挑战方面,电力需求持续增长、能源结构调整、环境污染和气候变化等问题亟待解决。而在机遇方面,技术创新和政策支持将为电力行业带来新的增长点和发展契机。未来,全球电力行业有望实现更加可持续、清洁和智能的发展,为打造绿色低碳的能源体系作出更大贡献。

关系数据表示学习

关系数据卢多维奇·多斯桑托斯引用此版本:卢多维奇·多斯桑托斯。关系数据的表示学习机器学习[cs.LG]。皮埃尔和玛丽·居里大学-巴黎第六大学,2017年。英语。NNT:2017PA066480。电话:01803188HAL ID:电话:01803188https://theses.hal.science/tel-01803188提交日期:2018年HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaireUNIVERSITY PIERRE和 MARIE CURIE计算机科学、电信和电子学博士学院(巴黎)巴黎6号计算机科学实验室D八角形T HESIS关系数据表示学习作者:Ludovic DOS SAntos主管:Patrick GALLINARI联合主管:本杰明·P·伊沃瓦斯基为满足计算机科学博士学位的要求而提交的论文评审团成员:先生蒂埃里·A·退休记者先生尤尼斯·B·恩