d = np.array([1,2,4,10,20,95,130]) sig = np.array([250,185,137,86,95,33,25])画一个散点图

时间: 2023-09-29 12:08:23 浏览: 22
好的,我们可以使用 Matplotlib 库来绘制散点图。首先,需要安装 Matplotlib 库(如果还没有安装的话),可以使用以下命令安装: ```python !pip install matplotlib ``` 然后,可以使用以下代码来绘制散点图: ```python import numpy as np import matplotlib.pyplot as plt d = np.array([1,2,4,10,20,95,130]) sig = np.array([250,185,137,86,95,33,25]) plt.scatter(d, sig) plt.xlabel("d") plt.ylabel("sig") plt.show() ``` 运行以上代码后,就可以得到散点图了。
相关问题

f = open('G:\jiont\比赛数据2022\charging_data79.csv', encoding='utf-8') data = pd.DataFrame(pd.read_csv(f, encoding='utf-8-sig', low_memory=False)) soc = np.array(data['standard_soc']) # 放电深度DoD current = np.array(data['total_current']) current = [ float(x)/10 for x in current ] all_vol = np.array(data['cell_volt_list']) mileage = np.array(data['mileage']) mileage = [ float(x)/10 for x in mileage ] all_sig_data = cycle_sig(all_vol) all_sig_data = clean_data(all_sig_data) def split_chargedata(chargr_data): a_data = [] all_data = [] for index, m in enumerate(mileage): if index + 1 < len(mileage): if m == mileage[index + 1]: a_data.append(chargr_data[index]) else: a_data.append(chargr_data[index]) all_data.append(a_data) a_data = [] else: all_data.append(a_data) return all_data all_charge_data = split_chargedata(all_sig_data) all_charge_current = split_chargedata(current) all_charge_soc = split_chargedata(soc) dod1 = [] for t in all_charge_soc: dod1.append(t[-1]-t[0]) ind = [] for ind1, t in enumerate(dod1): if t<10: ind.append(ind1) all_charge_data = np.delete(all_charge_data, ind, axis=0) all_charge_current = np.delete(all_charge_current, ind, axis=0) all_charge_soc = np.delete(all_charge_soc, ind, axis=0) ind9 = [5, 13, 25, 35, 47, 55, 81, 84, 86, 88, 89, 92, 94, 101, 111, 115, 116, 126, 157, 162, 167, 174, 180, 198, 200, 216, 237, 245, 261] all_charge_data = np.delete(all_charge_data, ind9, axis=0) all_charge_current = np.delete(all_charge_current, ind9, axis=0) all_charge_soc = np.delete(all_charge_soc, ind9, axis=0)

这段代码主要进行了一些数据处理的操作,包括: 1. 读取CSV文件中的数据,将SOC、电流、电压等数据存储到NumPy数组中。 2. 对电压数据进行了一些处理,使用了`cycle_sig`和`clean_data`函数。 3. 定义了`split_chargedata`函数,用于将数据按照里程数进行拆分,生成二维列表,其中每个子列表代表一次充电过程中的数据。 4. 使用`split_chargedata`函数对SOC、电流和电压数据进行拆分。 5. 计算了每个充电过程的DoD,并将DoD小于10%的充电过程的索引记录在`ind`列表中。 6. 使用`np.delete`函数删除`ind`列表中的充电过程对应的SOC、电流和电压数据。 7. 还对一些其他的充电过程进行了删除操作,对应的索引记录在`ind9`列表中。 总体来说,这段代码的作用是对充电数据进行了一些清洗和处理,去除了一些异常数据和不需要的充电过程。

from scipy import signal import numpy as np import matplotlib.pyplot as plt plt.rcParams["font.family"] = 'Arial Unicode MS' original_sig = np.loadtxt("resources/unbalanced.txt") original_sig -= np.mean(original_sig) N = len(original_sig) pi = np.pi f2_jw = np.fft.fft(original_sig) f2_jw = np.fft.fftshift(f2_jw) jw_list = [complex(0, 1) * 2 * pi / N * item for item in np.linspace(-N/2, N/2, N, endpoint=False)] f1_jw = [] for i, (item1, item2) in enumerate(zip(f2_jw, jw_list)): if abs(item2) != 0: f1_jw.append(item1/item2) else: f1_jw.append(complex(0, 0)) f1_jw = np.array(f1_jw) * 1000 # m到mm的量纲转换 f1_jw = np.fft.ifftshift(f1_jw) vel_sig = np.fft.ifft(f1_jw).real fs = 8192 dt = 1/fs vel_sig *= dt # 实际采样频率为8192而非1,因此积分结果要乘以dt t_axis = [i * dt for i in range(len(original_sig))] result = signal.detrend(vel_sig) plt.figure(figsize=(12, 3)) plt.subplot(121) plt.plot(t_axis, vel_sig, label="频域积分计算得到的速度信号") plt.legend(loc="upper right") plt.subplot(122) plt.plot(t_axis, result, label="频域积分后去趋势得到的速度信号") plt.legend(loc="upper right") plt.show()将这段代码使用C语言进行编写,原始样本长度为512,为实数,在进行FFT处理之前,原始样本设置为复数,虚部全部设置为0

以下是使用C语言编写的代码: ```c #include <stdio.h> #include <stdlib.h> #include <math.h> #define PI 3.14159265358979323846 void fft(double complex *x, int n) { if (n == 1) return; double complex xe[n/2], xo[n/2]; for (int i = 0; i < n/2; ++i) { xe[i] = x[2*i]; xo[i] = x[2*i+1]; } fft(xe, n/2); fft(xo, n/2); for (int i = 0; i < n/2; ++i) { double complex t = cexp(-I * PI * i / (n/2)) * xo[i]; x[i] = xe[i] + t; x[i+n/2] = xe[i] - t; } } int main() { double original_sig[512]; FILE *fp; fp = fopen("resources/unbalanced.txt", "r"); for (int i = 0; i < 512; ++i) { fscanf(fp, "%lf", &original_sig[i]); original_sig[i] -= 0.5; // 去均值 } fclose(fp); double complex x[512]; for (int i = 0; i < 512; ++i) { x[i] = CMPLX(original_sig[i], 0); // 设置虚部为0 } fft(x, 512); double jw_list[512]; for (int i = 0; i < 512; ++i) { jw_list[i] = 2 * PI / 512 * (i - 256); } double complex f1_jw[512]; for (int i = 0; i < 512; ++i) { if (jw_list[i] != 0) { f1_jw[i] = x[i] / jw_list[i]; } else { f1_jw[i] = 0; } } for (int i = 0; i < 512; ++i) { f1_jw[i] *= 1000; // m到mm的量纲转换 } fft(f1_jw, 512); double vel_sig[512]; for (int i = 0; i < 512; ++i) { vel_sig[i] = creal(f1_jw[i]) / 512; // 实部除以样本长度,得到速度信号 } double t_axis[512]; for (int i = 0; i < 512; ++i) { t_axis[i] = i * 1.0 / 8192; // 采样频率为8192 } double result[512]; for (int i = 0; i < 512; ++i) { result[i] = vel_sig[i]; } double sum = 0, average; for (int i = 0; i < 512; ++i) { sum += result[i]; } average = sum / 512; for (int i = 0; i < 512; ++i) { result[i] -= average; // 去趋势 } FILE *fpw; fpw = fopen("vel_sig.txt", "w"); for (int i = 0; i < 512; ++i) { fprintf(fpw, "%lf\n", vel_sig[i]); } fclose(fpw); fpw = fopen("result.txt", "w"); for (int i = 0; i < 512; ++i) { fprintf(fpw, "%lf\n", result[i]); } fclose(fpw); return 0; } ``` 这段代码与Python代码实现的步骤基本相同,使用了C语言中的复数类型 `double complex` 和一些基本的数学函数。代码中还包含了读写文件的功能,将速度信号和去趋势后的速度信号分别写入了 `vel_sig.txt` 和 `result.txt` 文件中。
阅读全文

相关推荐

显示代码中y_rec的函数表达式:import numpy as np import matplotlib.pyplot as plt def gen_data(x1, x2): y_sample = np.sin(np.pi * x1 / 2) + np.cos(np.pi * x1 / 3) y_all = np.sin(np.pi * x2 / 2) + np.cos(np.pi * x2 / 3) return y_sample, y_all def kernel_interpolation(y_sample, x1, sig): gaussian_kernel = lambda x, c, h: np.exp(-(x - x[c]) ** 2 / (2 * (h ** 2))) num = len(y_sample) w = np.zeros(num) int_matrix = np.asmatrix(np.zeros((num, num))) for i in range(num): int_matrix[i, :] = gaussian_kernel(x1, i, sig) w = int_matrix.I * np.asmatrix(y_sample).T return w def kernel_interpolation_rec(w, x1, x2, sig): gkernel = lambda x, xc, h: np.exp(-(x - xc) ** 2 / (2 * (h ** 2))) num = len(x2) y_rec = np.zeros(num) for i in range(num): for k in range(len(w)): y_rec[i] = y_rec[i] + w[k] * gkernel(x2[i], x1[k], sig) return y_rec if name == 'main': snum =4 # control point数量 ratio =50 # 总数据点数量:snum*ratio sig = 2 # 核函数宽度 xs = -14 xe = 14 #x1 = np.linspace(xs, xe,snum) x1 = np.array([9, 9.1, 13 ]) x2 = np.linspace(xs, xe, (snum - 1) * ratio + 1) y_sample, y_all = gen_data(x1, x2) plt.figure(1) w = kernel_interpolation(y_sample, x1, sig) y_rec = kernel_interpolation_rec(w, x1, x2, sig) plt.plot(x2, y_rec, 'k') plt.plot(x2, y_all, 'r:') plt.ylabel('y') plt.xlabel('x') for i in range(len(x1)): plt.plot(x1[i], y_sample[i], 'go', markerfacecolor='none') # 计算均方根误差 rmse = np.sqrt(np.mean((y_rec - y_all) ** 2)) # 输出均方根误差值 print("均方根误差为:", rmse) plt.legend(labels=['reconstruction', 'original', 'control point'], loc='lower left') plt.title('kernel interpolation:$y=sin(\pi x/2)+cos(\pi x/3)$') plt.show()

import numpy as np import matplotlib.pyplot as plt import math def count(lis): lis = np.array(lis) key = np.unique(lis) x = [] y = [] for k in key: mask = (lis == k) list_new = lis[mask] v = list_new.size x.append(k) y.append(v) return x, y mu = [14, 23, 22] sigma = [2, 3, 4] tips = ['design', 'build', 'test'] figureIndex = 0 fig = plt.figure(figureIndex, figsize=(10, 8)) color = ['r', 'g', 'b'] ax = fig.add_subplot(111) for i in range(3): x = np.linspace(mu[i] - 3*sigma[i], mu[i] + 3*sigma[i], 100) y_sig = np.exp(-(x - mu[i])**2/(2*sigma[i]**2))/(math.sqrt(2*math.pi)) ax.plot = (x, y_sig, color[i] + '-') ax.legend(loc='best', frameon=False) ax.set_xlabel('# of days') ax.set_ylabel('probability') plt.show() plt.grid(True) size = 100000 samples = [np.random.normal(mu[i], sigma[i], size) for i in range(3)] data = np.zeros(len(samples[1])) for i in range(len(samples[1])): for j in range(3): data[i] += samples[j][i] data[i] = int(data[i]) a, b = count(data) pdf = [x/size for x in b] cdf = np.zeros(len(a)) for i in range(len(a)): if i > 0: cdf[i] += cdf[i - 1] cdf = cdf/size figureIndex += 1 fig = plt.figure(figureIndex, figsize=(10, 8)) ax = fig.add_subplot(211) ax.bar(a, height=pdf, color='blue', edgecolor='white', label='MC PDF') ax.plot(a, pdf) ax.legend(loc='best', frameon=False) ax.set_xlabel('# of days for project') ax.set_ylabel('probability') ax.set_title('Monte Carlo Simulation') ax = fig.add_subplot(212) ax.plot(a, cdf) ax.legend(loc='best', frameon=False) ax.set_xlabel('# of days for project') ax.set_ylabel('probability') ax.grid(True) plt.show()修改一下代码

from __future__ import print_function from imutils.object_detection import non_max_suppression from imutils import paths import numpy as np import argparse import imutils import cv2 ap = argparse.ArgumentParser() ap.add_argument("-i", "--images",required=True, help="path to images directory") winSize = (128,128) blockSize = (16,16) blockStride = (8,8) cellSize = (8,8) nbins = 9 hog = cv2.HOGDescriptor(winSize, blockSize, blockStride, cellSize, nbins) defaultdetector=cv2.HOGDescriptor_getDefaultPeopleDetector() hog.setSVMDetector(defaultdetector) image_Path="./images" sig=0 for imagePath in paths.list_images(image_Path): #args["images"] image = cv2.imread(imagePath) # image = imutils.resize(image, width=min(400, image.shape[1])) image = imutils.resize(image, (128,128)) orig = image.copy() # (rects, weights) = hog.detectMultiScale(image, winStride=(4, 4), # padding=(8, 8), scale=1.05) (rects, weights) = hog.detectMultiScale(image, winStride=(4, 4), padding=(8, 8), scale=1.05) for (x, y, w, h) in rects: cv2.rectangle(orig, (x, y), (x + w, y + h), (0, 0, 255), 2) rects = np.array([[x, y, x + w, y + h] for (x, y, w, h) in rects]) pick = non_max_suppression(rects, probs=None, overlapThresh=0.65) for (xA, yA, xB, yB) in pick: cv2.rectangle(image, (xA, yA), (xB, yB), (0, 255, 0), 2) filename = imagePath[imagePath.rfind("/") + 1:] print("[INFO] {}: {} original boxes, {} after suppression".format( filename, len(rects), len(pick))) cv2.imwrite("./Saves/"+str(sig)+"orig.jpg",orig) cv2.imwrite("./Saves/"+str(sig)+"image.jpg",image) sig+=1改正以上代码

最新推荐

recommend-type

python 对任意数据和曲线进行拟合并求出函数表达式的三种解决方案

x = np.array([10, 20, 30, 40, 50, 60, 70, 80]) y = np.array([174, 236, 305, 334, 349, 351, 342, 323]) # 3次多项式拟合 f1 = np.polyfit(x, y, 3) p1 = np.poly1d(f1) # 绘制结果 plt.plot(x, y, 's', label...
recommend-type

EDR( Endpoint Detection and Response:端点检测和响应)测试数据,这些数据可能来自主流工具 用于学习探索性分析

示例数据说明:这个 JSON 数据结构非常全面且详细地记录了一次与端点检测和响应相关的事件信息,从事件本身的基础情况、涉及的设备、文件、进程到各种描述、时间、风险状态等多方面进行了呈现,多条这样的记录组成的数据集可用于安全分析、威胁追踪、系统监控等众多相关场景。 《DuckDB:JSON数据探索性分析实战教程》博客中使用的数据,地址:https://blog.csdn.net/neweastsun/article/details/144592773?sharetype=blogdetail&sharerId=144592773&sharerefer=PC&sharesource=neweastsun&spm=1011.2480.3001.8118
recommend-type

2024年汽车市场行情及小米首款SUV发布与智驾数据积累

内容概要:本报告分析了2024年汽车市场的行情,包括新能源汽车和传统汽车的销售情况。小米汽车首款SUV小米YU7正式发布,将于2025年上市。头部新势力智驾系统的数据积累迅速,特别是理想和鸿蒙智行等企业。特斯拉计划推出新车型Model Q,定价低于3万美元。小马智行与广汽埃安达成战略合作,共同推动Robotaxi的商业化落地。 适合人群:汽车行业分析师、投资者、汽车爱好者和市场研究人员。 使用场景及目标:帮助了解2024年汽车市场的动态,特别是在新能源汽车、自动驾驶技术和市场合作方面的新进展。为投资者和企业提供决策支持。 其他说明:报告提供了详细的市场数据和趋势分析,有助于评估市场潜力和风险。
recommend-type

Elasticsearch核心改进:实现Translog与索引线程分离

资源摘要信息:"Elasticsearch是一个基于Lucene构建的开源搜索引擎。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java语言开发的,并作为Apache许可条款下的开源项目发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。" "Elasticsearch的索引线程是处理索引操作的重要部分,负责处理数据的写入、更新和删除等操作。但是,在处理大量数据和高并发请求时,如果索引线程处理速度过慢,就会导致数据处理的延迟,影响整体性能。因此,Elasticsearch采用了事务日志(translog)机制来提高索引操作的效率和可靠性。" "Elasticsearch的事务日志(translog)是一种持久化存储机制,用于记录所有未被持久化到分片中的索引操作。在发生故障或系统崩溃时,事务日志可以确保所有索引操作不会丢失,保证数据的完整性。每个分片都有自己的事务日志文件。" "在Elasticsearch的早期版本中,事务日志的操作和索引线程的操作是在同一个线程中完成的,这可能会导致性能瓶颈。为了解决这个问题,Elasticsearch将事务日志的操作从索引线程中分离出去,使得索引线程可以专注于数据的索引操作,而事务日志的操作可以独立地进行。这样可以大大提高了Elasticsearch的索引性能。" "但是,事务日志的操作是独立于索引操作的,这就需要保证事务日志的操作不会影响到索引操作的性能。因此,在将事务日志从索引线程分离出去的同时,Elasticsearch也引入了一些优化策略,比如批量写入事务日志,减少磁盘I/O操作,以及优化事务日志的数据结构,提高读写效率等。" "需要注意的是,虽然事务日志的分离可以提高索引操作的性能,但是也会增加系统的复杂度和维护难度。因此,开发者在使用这个功能时,需要充分理解其原理和影响,才能确保系统的稳定运行。" "此外,由于这个功能还处于测试和学习阶段,尚未被广泛应用于生产环境,所以开发者在使用时需要谨慎,避免对生产环境造成影响。" "总的来说,Elasticsearch的事务日志的分离是一个重要的优化,可以大大提升索引操作的性能,但是在使用时也需要充分考虑其带来的影响,才能确保系统的稳定运行。"
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

病房呼叫系统设计基础:7个关键架构策略让你一步入门

![病房呼叫系统设计基础:7个关键架构策略让你一步入门](https://zektek.com.mx/wp-content/uploads/2021/03/diagram-enfermeria.jpg) # 摘要 本文对病房呼叫系统进行了深入的概述、需求分析、架构设计、功能实现以及实践应用案例的探讨。通过分析系统架构的重要性、设计原则、模块划分和数据流,确保了系统的高效运行和优化。本文进一步探讨了呼叫信号传输技术、显示与反馈机制、系统安全性与可靠性设计,并分析了系统部署环境、安装调试流程和维护升级策略。最后,文章展望了病房呼叫系统的未来发展趋势,包括智能化、技术融合以及法规遵从与伦理考量,并
recommend-type

Selenium如何获取Shadow DOM下的元素属性?

在Selenium中,获取Shadow DOM下的元素属性通常涉及到两步:首先找到元素,然后访问它的属性。由于Shadow DOM元素默认是不可见的(对于非JavaScript开发者),所以我们需要用JavaScript脚本来获取其内容。 下面是一个示例,展示如何通过Selenium的`execute_script`函数获取Shadow DOM元素的属性: ```python from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from sel
recommend-type

分享个人Vim与Git配置文件管理经验

资源摘要信息:"conffiles:我的vim和git配置文件" 在给定的文件信息中,我们可以梳理出一些关键知识点,这些知识点主要涉及到了Vim编辑器和Git版本控制系统,同时涉及到了Linux环境下的一些文件操作知识。 首先,文件标题提到了"conffiles",这通常是指配置文件(configuration files)的缩写。配置文件是软件运行时用于读取用户设置或其他运行参数的文件,它们允许软件按照用户的特定需求进行工作。在本例中,这些配置文件是与Vim编辑器和Git版本控制系统相关的。 Vim是一种流行的文本编辑器,是UNIX系统中vi编辑器的增强版本。Vim不仅支持代码编辑,还支持插件扩展、多种模式(命令模式、插入模式、视觉模式等)和高度可定制化。在这个上下文中,"我的vim"可能指的是使用者为Vim定制的一套配置文件,这些配置文件可能包含键位映射、颜色主题、插件设置、用户界面布局和其他个性化选项。 Git是一个版本控制系统,用于跟踪计算机文件的更改和协作。Git是分布式版本控制,这意味着每个开发者都有一个包含完整项目历史的仓库副本。Git常用于代码的版本控制管理,它允许用户回滚到之前的版本、合并来自不同贡献者的代码,并且有效地管理代码变更。在这个资源中,"git conffiles"可能表示与Git用户相关的配置文件,这可能包括用户凭证、代理设置、别名以及其他一些全局Git配置选项。 描述部分提到了使用者之前使用的编辑器是Vim,但现在转向了Emacs。尽管如此,该用户仍然保留了以前的Vim配置文件。接着,描述中提到了一个安装脚本命令"sh ./.vim/install.sh"。这是一个shell脚本,通常用于自动化安装或配置过程。在这里,这个脚本可能用于创建符号链接(symbolic links),将旧的Vim配置文件链接到当前使用的Emacs配置文件夹中,使用户能够继续使用他们熟悉且习惯的Vim配置。 标签"Vimscript"表明这是一个与Vim脚本相关的资源,Vim脚本是一种专门用于自定义和扩展Vim功能的编程语言。Vimscript可以用于编写宏、自定义函数、插件等。 最后,文件名称列表"conffiles-master"可能表明这个压缩包文件包含了一系列的主配置文件。在Git版本控制的术语中,"master"(现在通常称为"main")分支是项目仓库的默认分支。这暗示了这些配置文件可能是该用户项目的主配置文件,这些配置文件被包含在名为"conffiles-master"的压缩包中。 综上所述,这个资源可能是一个集合了Vim编辑器和Git版本控制系统的个人配置文件的压缩包,附带一个用于符号链接旧Vim配置的安装脚本,它能够帮助用户在转向其他工具时仍然能够使用之前的个性化设置。这个资源对于想要了解如何管理和迁移配置文件的用户具有一定的参考价值。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【Genesis 2000教程】:7个技巧助你精通界面布局与操作

![技术专有名词:Genesis 2000](http://intewellos.com/uploadfiles/2023/03/20230321111815165.png) # 摘要 本文全面介绍了Genesis 2000软件的界面布局基础、操作技巧、视觉效果调整、高级功能应用以及综合案例分析,旨在帮助用户高效利用该软件提升工作效率和设计质量。文章首先从界面元素和布局优化入手,讲述了如何定制面板、工具栏以及管理窗口与视图。接着,探讨了通过快捷键和搜索功能实现的高效导航与搜索技巧。第三章强调了视觉效果与图形、文本处理的重要性,并提供实现高级视觉效果的技巧。第四章详细介绍了插件集成、参数化设计