float_list = float(data_list[0]) self.data.append(float_list) self.data = self.data[-50:] self.data_x = self.data_x + 1 self.data_line.setData(np.arange(len(self.data) + self.data_x), self.data)这个代码运行后报错 raise Exception("X and Y arrays must be the same shape--got %s and %s." % (self.xData.shape, self.yData.shape)) Exception: X and Y arrays must be the same shape--got (167,) and (50,).

时间: 2023-11-29 17:05:29 浏览: 25
根据您提供的代码,报错信息显示`self.xData`和`self.yData`的形状不一致,一个是`(167,)`,一个是`(50,)`。因为这里的`setData`方法的第一个参数是`np.arange(len(self.data) + self.data_x)`,这个参数是一个长度为`len(self.data) + self.data_x`的数组,而第二个参数是`self.data`,这个参数是一个长度为`50`的数组。所以这里的问题应该在于,`self.xData`的长度与`np.arange(len(self.data) + self.data_x)`不一致,导致了形状不一致的错误。 建议您检查一下代码中`self.xData`的定义和赋值,确保它的长度与`np.arange(len(self.data) + self.data_x)`保持一致。您可以尝试使用以下代码替换原来的`setData`方法: ``` self.data_line.setData(np.arange(len(self.data) + self.data_x), self.data, x=self.xData) ``` 这样可以将`self.xData`作为`setData`方法的第三个参数传入,来保证x轴数据的正确性。
相关问题

float_list = float(data_list[0]) self.data.append(float_list) self.data = self.data[-50:] self.data_x = self.data_x + 1 self.data_line.setData(np.arange(len(self.data) + self.data_x), self.data)

这段代码中,首先将data_list列表的第一个元素转换成float类型,并将其存储在float_list中。然后将float_list添加到self.data列表中,并保留该列表的最后50个元素。接着,将self.data_x的值加1,然后用np.arange(len(self.data) + self.data_x)生成一个新的数组作为self.data_line的x轴数据,用self.data作为y轴数据,最终用setData()方法将这些数据设置到self.data_line中。这段代码的作用可能是在一个动态图表中添加新的数据点,并将其绘制出来。

data = uart_r.readline().decode().strip() data_list = data.split() float_list = float(data_list[0]) self.data.append(float_list) self.data = self.data[-50:] self.data_line.setData(np.arange(len(self.data)), self.data) 用这个函数实时显示串口接收的最新的50个数据绘制的折线图,但是现在显示的折线图中x轴没有变化,x轴可以和显示的折线图的数据实时更新变化吗?

可以的。根据代码中的`np.arange(len(self.data))`,横坐标是根据`self.data`的长度来生成的,因此只要在每次添加新数据时重新设置横坐标即可。具体来说,可以将`setData`的第一个参数改为一个变量,如`x_axis`,在每次更新数据时,先将`x_axis`更新为新的横坐标,再将`x_axis`和`self.data`作为参数调用`setData`方法。修改后的代码如下: ``` data = uart_r.readline().decode().strip() data_list = data.split() float_list = float(data_list[0]) self.data.append(float_list) self.data = self.data[-50:] x_axis = np.arange(len(self.data)) self.data_line.setData(x_axis, self.data) ``` 这样,每次更新数据时,折线图的横坐标就会根据`self.data`的长度重新生成,实现了实时更新变化。

相关推荐

import numpy import numpy as np import matplotlib.pyplot as plt import math import torch from torch import nn from torch.utils.data import DataLoader, Dataset import os os.environ['KMP_DUPLICATE_LIB_OK']='True' dataset = [] for data in np.arange(0, 3, .01): data = math.sin(data * math.pi) dataset.append(data) dataset = np.array(dataset) dataset = dataset.astype('float32') max_value = np.max(dataset) min_value = np.min(dataset) scalar = max_value - min_value print(scalar) dataset = list(map(lambda x: x / scalar, dataset)) def create_dataset(dataset, look_back=3): dataX, dataY = [], [] for i in range(len(dataset) - look_back): a = dataset[i:(i + look_back)] dataX.append(a) dataY.append(dataset[i + look_back]) return np.array(dataX), np.array(dataY) data_X, data_Y = create_dataset(dataset) train_X, train_Y = data_X[:int(0.8 * len(data_X))], data_Y[:int(0.8 * len(data_Y))] test_X, test_Y = data_Y[int(0.8 * len(data_X)):], data_Y[int(0.8 * len(data_Y)):] train_X = train_X.reshape(-1, 1, 3).astype('float32') train_Y = train_Y.reshape(-1, 1, 3).astype('float32') test_X = test_X.reshape(-1, 1, 3).astype('float32') train_X = torch.from_numpy(train_X) train_Y = torch.from_numpy(train_Y) test_X = torch.from_numpy(test_X) class RNN(nn.Module): def __init__(self, input_size, hidden_size, output_size=1, num_layer=2): super(RNN, self).__init__() self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size self.num_layer = num_layer self.rnn = nn.RNN(input_size, hidden_size, batch_first=True) self.linear = nn.Linear(hidden_size, output_size) def forward(self, x): out, h = self.rnn(x) out = self.linear(out[0]) return out net = RNN(3, 20) criterion = nn.MSELoss(reduction='mean') optimizer = torch.optim.Adam(net.parameters(), lr=1e-2) train_loss = [] test_loss = [] for e in range(1000): pred = net(train_X) loss = criterion(pred, train_Y) optimizer.zero_grad() # 反向传播 loss.backward() optimizer.step() if (e + 1) % 100 == 0: print('Epoch:{},loss:{:.10f}'.format(e + 1, loss.data.item())) train_loss.append(loss.item()) plt.plot(train_loss, label='train_loss') plt.legend() plt.show()请适当修改代码,并写出预测值和真实值的代码

import numpy as np import matplotlib.pyplot as plt import math import torch from torch import nn import pdb from torch.autograd import Variable import os os.environ['KMP_DUPLICATE_LIB_OK']='True' dataset = [] for data in np.arange(0, 3, .01): data = math.sin(data * math.pi) dataset.append(data) dataset = np.array(dataset) dataset = dataset.astype('float32') max_value = np.max(dataset) min_value = np.min(dataset) scalar = max_value - min_value dataset = list(map(lambda x: x / scalar, dataset)) def create_dataset(dataset, look_back=3): dataX, dataY = [], [] for i in range(len(dataset) - look_back): a = dataset[i:(i + look_back)] dataX.append(a) dataY.append(dataset[i + look_back]) return np.array(dataX), np.array(dataY) data_X, data_Y = create_dataset(dataset) # 对训练集测试集划分,划分比例0.8 train_X, train_Y = data_X[:int(0.8 * len(data_X))], data_Y[:int(0.8 * len(data_Y))] test_X, test_Y = data_Y[int(0.8 * len(data_X)):], data_Y[int(0.8 * len(data_Y)):] train_X = train_X.reshape(-1, 1, 3).astype('float32') train_Y = train_Y.reshape(-1, 1, 3).astype('float32') test_X = test_X.reshape(-1, 1, 3).astype('float32') class RNN(nn.Module): def __init__(self, input_size, hidden_size, output_size=1, num_layer=2): super(RNN, self).__init__() self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size self.num_layer = num_layer self.rnn = nn.RNN(input_size, hidden_size, batch_first=True) self.linear = nn.Linear(hidden_size, output_size) def forward(self, x): # 补充forward函数 out, h = self.rnn(x) out = self.linear(out[0]) # print("output的形状", out.shape) return out net = RNN(3, 20) criterion = nn.MSELoss(reduction='mean') optimizer = torch.optim.Adam(net.parameters(), lr=1e-2) train_loss = [] test_loss = [] for e in range(1000): pred = net(train_X) loss = criterion(pred, train_Y) optimizer.zero_grad() # 反向传播 loss.backward() optimizer.step() if (e + 1) % 100 == 0: print('Epoch:{},loss:{:.10f}'.format(e + 1, loss.data.item())) train_loss.append(loss.item()) plt.plot(train_loss, label='train_loss') plt.legend() plt.show()画出预测值真实值图

return data, label def __len__(self): return len(self.data)train_dataset = MyDataset(train, y[:split_boundary].values, time_steps, output_steps, target_index)test_ds = MyDataset(test, y[split_boundary:].values, time_steps, output_steps, target_index)class MyLSTMModel(nn.Module): def __init__(self): super(MyLSTMModel, self).__init__() self.rnn = nn.LSTM(input_dim, 16, 1, batch_first=True) self.flatten = nn.Flatten() self.fc1 = nn.Linear(16 * time_steps, 120) self.relu = nn.PReLU() self.fc2 = nn.Linear(120, output_steps) def forward(self, input): out, (h, c) = self.rnn(input) out = self.flatten(out) out = self.fc1(out) out = self.relu(out) out = self.fc2(out) return outepoch_num = 50batch_size = 128learning_rate = 0.001def train(): print('训练开始') model = MyLSTMModel() model.train() opt = optim.Adam(model.parameters(), lr=learning_rate) mse_loss = nn.MSELoss() data_reader = DataLoader(train_dataset, batch_size=batch_size, drop_last=True) history_loss = [] iter_epoch = [] for epoch in range(epoch_num): for data, label in data_reader: # 验证数据和标签的形状是否满足期望,如果不满足,则跳过这个批次 if data.shape[0] != batch_size or label.shape[0] != batch_size: continue train_ds = data.float() train_lb = label.float() out = model(train_ds) avg_loss = mse_loss(out, train_lb) avg_loss.backward() opt.step() opt.zero_grad() print('epoch {}, loss {}'.format(epoch, avg_loss.item())) iter_epoch.append(epoch) history_loss.append(avg_loss.item()) plt.plot(iter_epoch, history_loss, label='loss') plt.legend() plt.xlabel('iters') plt.ylabel('Loss') plt.show() torch.save(model.state_dict(), 'model_1')train()param_dict = torch.load('model_1')model = MyLSTMModel()model.load_state_dict(param_dict)model.eval()data_reader1 = DataLoader(test_ds, batch_size=batch_size, drop_last=True)res = []res1 = []# 在模型预测时,label 的处理for data, label in data_reader1: data = data.float() label = label.float() out = model(data) res.extend(out.detach().numpy().reshape(data.shape[0]).tolist()) res1.extend(label.numpy().tolist()) # 由于预测一步,所以无需 reshape,直接转为 list 即可title = "t321"plt.title(title, fontsize=24)plt.xlabel("time", fontsize=14)plt.ylabel("irr", fontsize=14)plt.plot(res, color='g', label='predict')plt.plot(res1, color='red', label='real')plt.legend()plt.grid()plt.show()的运算过程

import numpy as np class Node: j = None theta = None p = None left = None right = None class DecisionTreeBase: def __init__(self, max_depth, feature_sample_rate, get_score): self.max_depth = max_depth self.feature_sample_rate = feature_sample_rate self.get_score = get_score def split_data(self, j, theta, X, idx): idx1, idx2 = list(), list() for i in idx: value = X[i][j] if value <= theta: idx1.append(i) else: idx2.append(i) return idx1, idx2 def get_random_features(self, n): shuffled = np.random.permutation(n) size = int(self.feature_sample_rate * n) selected = shuffled[:size] return selected def find_best_split(self, X, y, idx): m, n = X.shape best_score = float("inf") best_j = -1 best_theta = float("inf") best_idx1, best_idx2 = list(), list() selected_j = self.get_random_features(n) for j in selected_j: thetas = set([x[j] for x in X]) for theta in thetas: idx1, idx2 = self.split_data(j, theta, X, idx) if min(len(idx1), len(idx2)) == 0 : continue score1, score2 = self.get_score(y, idx1), self.get_score(y, idx2) w = 1.0 * len(idx1) / len(idx) score = w * score1 + (1-w) * score2 if score < best_score: best_score = score best_j = j best_theta = theta best_idx1 = idx1 best_idx2 = idx2 return best_j, best_theta, best_idx1, best_idx2, best_score def generate_tree(self, X, y, idx, d): r = Node() r.p = np.average(y[idx], axis=0) if d == 0 or len(idx)<2: return r current_score = self.get_score(y, idx) j, theta, idx1, idx2, score = self.find_best_split(X, y, idx) if score >= current_score: return r r.j = j r.theta = theta r.left = self.generate_tree(X, y, idx1, d-1) r.right = self.generate_tree(X, y, idx2, d-1) return r def fit(self, X, y): self.root = self.generate_tree(X, y, range(len(X)), self.max_depth) def get_prediction(self, r, x): if r.left == None and r.right == None: return r.p value = x[r.j] if value <= r.theta: return self.get_prediction(r.left, x) else: return self.get_prediction(r.right, x) def predict(self, X): y = list() for i in range(len(X)): y.append(self.get_prediction(self.root, X[i])) return np.array(y)

最新推荐

recommend-type

杭州电子科技大学数据结构(题目).pdf

杭州电子科技大学,期末考试资料,计算机专业期末考试试卷,试卷及答案,数据结构。
recommend-type

重庆大学 2010-2011(一)模拟电子技术A卷答案.pdf

重庆大学期末考试试卷,重大期末考试试题,试题及答案
recommend-type

如何创意年会组织形式?.docx

年会班会资料,节目策划,游戏策划,策划案,策划方案,活动方案,筹办,公司年会,开场白,主持人,策划主题,主持词,小游戏。
recommend-type

基于Django框架的博客系统.zip

基于Django框架的博客系统.zip
recommend-type

【基于Springboot+Vue的Java毕业设计】校园服务平台项目实战(源码+录像演示+说明).rar

【基于Springboot+Vue的Java毕业设计】校园服务平台项目实战(源码+录像演示+说明).rar 【项目技术】 开发语言:Java 框架:Spingboot+vue 架构:B/S 数据库:mysql 【演示视频-编号:321】 https://pan.quark.cn/s/8dea014f4d36 【实现功能】 系统可以提供信息显示和相应服务,其管理员增删改查接单员和接单员资料,审核接单员预订订单,查看订单评价和评分,通过留言功能回复用户提问。
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

:YOLO目标检测算法的挑战与机遇:数据质量、计算资源与算法优化,探索未来发展方向

![:YOLO目标检测算法的挑战与机遇:数据质量、计算资源与算法优化,探索未来发展方向](https://img-blog.csdnimg.cn/7e3d12895feb4651b9748135c91e0f1a.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBA5rKJ6YaJ77yM5LqO6aOO5Lit,size_20,color_FFFFFF,t_70,g_se,x_16) # 1. YOLO目标检测算法简介 YOLO(You Only Look Once)是一种
recommend-type

def ObjFun(x,y,beta): # 目标函数 """ Logistic regression loss function :param beta: model parameter vector :param x: feature matrix :param y: label vector :return: loss value """ n = x.shape[0] p = x.shape[1] pred = 1 / (1 + np.exp(-np.dot(x, beta))) pred = np.clip(pred, 1e-15, 1 - 1e-15) # 将预测值限制在一个很小的区间内 ObjVal = -np.sum(y * np.log(pred) + (1 - y) * np.log(1 - pred)) / n return ObjVal

好的,根据上面的目标函数,我们可以推导出其对应的梯度向量函数,如下所示: def gradient(x, y, beta): """ Compute gradient of the logistic regression loss function :param beta: model parameter vector :param x: feature matrix :param y: label vector :return: gradient vector """ n = x.shape[0] pred = 1 /
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。