for l in range(L): le = edges_on_layer[l] lm = len(le) test_indexes = getSample(list(range(lm)), int(lm * test_rate + 0.5)) for i,e in enumerate(le): if i in test_indexes: tests.append(e) else: trains.append(e)
时间: 2024-02-15 09:27:40 浏览: 69
这段代码是一个用于图神经网络的数据集划分方法。其中,`L`表示图的层数,`edges_on_layer`表示每一层的边集合,`le`表示第`l`层的边集合,`lm`表示第`l`层的边的数量。`test_rate`表示测试集所占比例,`getSample`函数是从`list(range(lm))`中随机抽样的函数,抽样数量为`int(lm * test_rate + 0.5)`。然后,对于第`l`层的每一条边`e`,如果`e`的索引`i`在`test_indexes`中,则将其添加到测试集`tests`中,否则添加到训练集`trains`中。最终,这段代码将图的所有边分为了训练集和测试集两部分。
相关问题
def edge_attention(self, edges): # an edge UDF to compute unnormalized attention values from src and dst if self.l0 == 0: m = self.leaky_relu(edges.src['a1'] + edges.dst['a2']) else: tmp = edges.src['a1'] + edges.dst['a2'] logits = tmp + self.bias_l0 if self.training: m = l0_train(logits, 0, 1) else: m = l0_test(logits, 0, 1) self.loss = get_loss2(logits[:,0,:]).sum() return {'a': m}
在这段代码中,`edge_attention`函数是一个图神经网络中的边自定义函数。它接收一个包含边信息的edges对象作为输入,并计算未归一化的注意力值。
首先,如果`self.l0`等于0,那么将执行以下操作:
- 计算`edges.src['a1']`和`edges.dst['a2']`的和。
- 使用`self.leaky_relu`函数对和进行激活函数处理,得到注意力值`m`。
接下来,如果`self.l0`不等于0,那么将执行以下操作:
- 计算`edges.src['a1']`和`edges.dst['a2']`的和,存储在变量`tmp`中。
- 将`tmp`与`self.bias_l0`相加,得到logits(对数概率)。
- 如果处于训练模式,则调用`l0_train`函数,传入logits、0和1作为参数,得到一个掩码(mask)`m`。同时,计算损失函数`self.loss`,使用`get_loss2`函数计算logits的损失,并对第一个维度求和。
- 如果处于测试模式,则调用`l0_test`函数,传入logits、0和1作为参数,得到一个掩码(mask)`m`。
最后,函数返回一个包含注意力值的字典,键为'a',值为掩码(mask)`m`。
def tsp_path_planning(points): # TSP路径规划 n = len(points) dist_matrix = cdist(points, points) mst = minimum_spanning_tree(csr_matrix(dist_matrix)).toarray() graph = Graph() for i in range(n): graph.add_node(i) for i in range(n): for j in range(i+1, n): if mst[i, j] != 0: graph.add_edge(i, j, weight=dist_matrix[i, j]) vertex_cover = min_weighted_vertex_cover(graph, weight='weight') odd_vertices = list(vertex_cover) odd_edges = np.zeros((len(vertex_cover), 2)) k = 0 for i in range(n): if i in odd_vertices: odd_edges[k, 0] = i k += 1 closed_tour = np.array(list(vertex_cover) + [vertex_cover[0]]) for i in range(0, len(odd_edges), 2): u, v = int(odd_edges[i, 0]), int(odd_edges[i+1, 0]) min_dist, min_j = np.inf, -1 for j in range(n): if j not in odd_vertices: dist = dist_matrix[u, j] + dist_matrix[v, j] if dist < min_dist: min_dist, min_j = dist, j closed_tour = np.insert(closed_tour, np.where(closed_tour == u)[0][0]+1, min_j) closed_tour = np.insert(closed_tour, np.where(closed_tour == v)[0][0]+1, min_j) odd_vertices.remove(u) odd_vertices.remove(v) return closed_tour这个函数貌似没有删除重复的顶点
是的,你说得没错。这个函数确实没有删除重复的顶点,因为它是用于求解TSP路径规划的,而TSP路径规划中需要经过所有的顶点,因此不需要删除重复的顶点。另外,由于TSP问题是NP问题,没有一种简单的算法可以在多项式时间内求解,因此很多TSP路径规划算法都是近似算法或者启发式算法,而不是精确算法,因此允许一定的误差和重复顶点。
阅读全文