#功图批量绘制 import os import numpy as np import pandas as pd from PIL import Image from matplotlib import pyplot as plt plt.figure(figsize=(4, 2), dpi=50, frameon=False) ax = plt.axes([0, 0, 1, 1]) grey = plt.get_cmap('Greys') seismic = plt.get_cmap('bwr') datapath = "G:/功图excel/0" conds = os.listdir(datapath) for cond in conds: data = pd.read_csv("G:/功图excel/0/" + cond) os.mkdir(r"G:/功图/0/" + cond[:-4]) # print(data) # 首先将pandas读取的数据转化为array data = np.array(data) # 然后转化为list形式 data = data.tolist() # print(data) n = 0 for i in data: if np.isnan(i).any(): # 检查数据是否包含 NaN 值 continue # 如果包含,则跳过该迭代 WY = i[0:200] ZH = i[200:400] # print(len(WY),len(ZH)) plt.plot(WY[0: 100], ZH[0: 100], color=seismic(5 / 5.0), lw=3) plt.plot(WY[100: 200], ZH[100: 200], color=seismic(0 / 5.0), lw=3) plt.xticks([]) plt.yticks([]) ax.spines['right'].set_visible(False) ax.spines['top'].set_visible(False) ax.spines['left'].set_visible(False) ax.spines['bottom'].set_visible(False) Y_ALL = [] Y_ALL.extend(list(map(float, ZH))) Y_MAX, Y_MIN = np.max(Y_ALL), np.min(Y_ALL) ax.set_ylim(np.min([0, Y_MIN - (Y_MAX - Y_MIN) * 0.1]), Y_MAX + (Y_MAX - Y_MIN) * 0.1) plt.savefig("G:/功图/0/" + cond[:-4] + '/' + str(n), dpi=50) # plt.savefig(newpath + "GT/" + cond + "/" + data['IMGNAME'][i], dpi=50) plt.clf() # plt.show() n = n + 1,以上这段代码画出来的图为什么第一张无边框,其余都有边框?

时间: 2024-04-07 21:30:53 浏览: 10
根据你提供的代码,第一张图无边框可能是因为第一次调用 plt.savefig() 函数时,没有设置边框。可以将设置边框的代码放在 for 循环之前,这样每次调用 plt.savefig() 函数时都会有边框: ```python plt.figure(figsize=(4, 2), dpi=50, frameon=False) ax = plt.axes([0, 0, 1, 1]) ax.spines['right'].set_visible(False) ax.spines['top'].set_visible(False) ax.spines['left'].set_visible(False) ax.spines['bottom'].set_visible(False) grey = plt.get_cmap('Greys') seismic = plt.get_cmap('bwr') datapath = "G:/功图excel/0" conds = os.listdir(datapath) for cond in conds: # ... ```
相关问题

#功图批量绘制 import os import numpy as np import pandas as pd from PIL import Image from matplotlib import pyplot as plt plt.figure(figsize=(4, 2), dpi=50, frameon=False) ax = plt.axes([0, 0, 1, 1]) grey = plt.get_cmap('Greys') seismic = plt.get_cmap('bwr') datapath = "G:/功图excel/0" conds = os.listdir(datapath) for cond in conds: data = pd.read_csv("G:/功图excel/0/" + cond) os.mkdir(r"G:/功图/0/" + cond[:-4]) # print(data) # 首先将pandas读取的数据转化为array data = np.array(data) # 然后转化为list形式 data = data.tolist() # print(data) n = 0 for i in data: if np.isnan(i).any(): # 检查数据是否包含 NaN 值 continue # 如果包含,则跳过该迭代 WY = i[0:200] ZH = i[200:400] # print(len(WY),len(ZH)) plt.plot(WY[0: 100], ZH[0: 100], color=seismic(5 / 5.0), lw=3) plt.plot(WY[100: 200], ZH[100: 200], color=seismic(0 / 5.0), lw=3) plt.xticks([]) plt.yticks([]) ax.spines['right'].set_visible(False) ax.spines['top'].set_visible(False) ax.spines['left'].set_visible(False) ax.spines['bottom'].set_visible(False) Y_ALL = [] Y_ALL.extend(list(map(float, ZH))) Y_MAX, Y_MIN = np.max(Y_ALL), np.min(Y_ALL) ax.set_ylim(np.min([0, Y_MIN - (Y_MAX - Y_MIN) * 0.1]), Y_MAX + (Y_MAX - Y_MIN) * 0.1) plt.savefig("G:/功图/0/" + cond[:-4] + '/' + str(n), dpi=50) # plt.savefig(newpath + "GT/" + cond + "/" + data['IMGNAME'][i], dpi=50) # plt.clf() # plt.show() n = n + 1,以上代码画出来的示功图怎么感觉叠加起来了

根据您提供的代码,我猜测您的问题可能是每次迭代时没有清空绘图区域,导致新的图形叠加在之前的图形上。您可以在每次迭代之前调用 plt.clf() 方法,这将清除当前绘图区域中的所有内容,以便您可以从头开始绘制新的图形。修改后的代码如下: ```python import os import numpy as np import pandas as pd from PIL import Image from matplotlib import pyplot as plt plt.figure(figsize=(4, 2), dpi=50, frameon=False) ax = plt.axes([0, 0, 1, 1]) grey = plt.get_cmap('Greys') seismic = plt.get_cmap('bwr') datapath = "G:/功图excel/0" conds = os.listdir(datapath) for cond in conds: data = pd.read_csv("G:/功图excel/0/" + cond) os.mkdir(r"G:/功图/0/" + cond[:-4]) data = np.array(data) data = data.tolist() n = 0 for i in data: if np.isnan(i).any(): continue WY = i[0:200] ZH = i[200:400] plt.plot(WY[0: 100], ZH[0: 100], color=seismic(5 / 5.0), lw=3) plt.plot(WY[100: 200], ZH[100: 200], color=seismic(0 / 5.0), lw=3) plt.xticks([]) plt.yticks([]) ax.spines['right'].set_visible(False) ax.spines['top'].set_visible(False) ax.spines['left'].set_visible(False) ax.spines['bottom'].set_visible(False) Y_ALL = [] Y_ALL.extend(list(map(float, ZH))) Y_MAX, Y_MIN = np.max(Y_ALL), np.min(Y_ALL) ax.set_ylim(np.min([0, Y_MIN - (Y_MAX - Y_MIN) * 0.1]), Y_MAX + (Y_MAX - Y_MIN) * 0.1) plt.savefig("G:/功图/0/" + cond[:-4] + '/' + str(n), dpi=50) plt.clf() # 清空绘图区域 n = n + 1 ``` 希望这可以解决您的问题。

代码解释from PIL import Image import matplotlib import pandas as pd import matplotlib.pyplot as plt from wordcloud import WordCloud import seaborn as sns import numpy as np from pyecharts import options as opts sns.set(font="Kaiti", style="ticks", font_scale=1.4) matplotlib.rcParams['axes.unicode_minus'] = False df = pd.read_excel('战狼2-观看后=清洗后的数据(1).xlsx') img = Image.open('zhanlang.jpg') mask = np.array(img) column_name = '评论内容' text_data = ' '.join(df[column_name].dropna().astype(str).tolist()) print(text_data) wordcloud = WordCloud(font_path="msyh.ttc",mask=mask, width=800, height=400, background_color='white').generate(text_data) wordcloud.generate(text_data) plt.figure(figsize=(10, 5)) plt.imshow(wordcloud, interpolation='bilinear') plt.axis('off') plt.show() wordcloud.to_file("1_词云图.png")

这段代码是用来生成一张词云图。首先导入了需要的库,包括PIL用于处理图片,matplotlib用于绘图,pandas用于数据处理,seaborn用于设置绘图样式,numpy用于处理数组,以及pyecharts和wordcloud库。然后读取了一个Excel文件中的数据,并选择了一个列作为评论内容。接下来将评论内容转换为字符串,并生成词云图。最后通过matplotlib绘制并显示词云图,并保存为一张图片。

相关推荐

import numpy as np import pandas as pd import matplotlib.pyplot as plt import PIL import torch from torchvision import transforms import torchvision #调用已经训练好的FCN语义分割网络 model = torchvision.models.segmentation.fcn_resnet101(pretrained=True) model.eval() #读取照片 image=PIL.Image.open('1234.jpg') #照片进行预处理 image_transf=transforms.Compose([ transforms.ToTensor(), transforms.Normalize(mean=[0.485,0.456,0.406], std=[0.229,0.224,0.225]) ] ) image_tensor=image_transf(image).unsqueeze(0) output=model(image_tensor)['out'] output.shape #读取图片,进行分割,总共21个通道,因为在21个数据集上训练 #转化为2维图像 outputarg=torch.argmax(output.squeeze(),dim=0).numpy() outputarg def decode_seqmaps(image,label_colors,nc=21): r=np.zeros_like(image).astype(np.uint8) g=np.zeros_like(image).astype(np.uint8) b=np.zeros_like(image).astype(np.uint8) for cla in range(0,nc): idx = image == cla r[idx] = label_colors[cla,0] g[idx] = label_colors[cla,1] b[idx] = label_colors[cla,2] rgbimage= np.stack([r,g,b],axis=2) return rgbimage import os os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE" label_colors =np.array([(0,0,0), #0=background (128,0,0),(0,128,0),(128,128,0),(0,0,128), #1=airplane,2=bicycle,3=bird,4=boat (128,0,128),(0,128,128),(128,128,128),(64,0,0), #6=bus,7=car,8=cat,9=chair (192,0,0),(64,128,0),(192,128,0),(64,0,128), #10=cow,11=dining table,12=dog,13=horse (192,0,128),(64,128,128),(192,128,128),(0,64,0), #14=motorbike,15=person,16=potted plant,17=sheep (128,64,0),(0,192,0),(128,192,0),(0,64,128) #18=sofa,19=train,20=tv/monitor ]) outputrgb=decode_seqmaps(outputarg,label_colors) plt.figure(figsize=(20,8)) plt.subplot(1,2,1) plt.imshow(image) plt.axis('off') plt.subplot(1,2,2) plt.imshow(outputrgb) plt.axis('off') plt.subplots_adjust(wspace=0.05) plt.show() 使用了哪些深度学习的模型和方法,该代码的实验目的是什么

import streamlit as st import pandas as pd import numpy as np import matplotlib.pyplot as plt import altair as alt from PIL import Image # st.header - 显示主标题 st.header('学习streamlit模块')#显示主标题 # st.subheader - 显示副标题 st.subheader('副标题用法')#显示副标题 # st.text - 显示文本 st.text('显示定宽文本') # st.markdown - 显示markdown文本 st.markdown('Streamlit <html>', True) st.markdown('Streamlit <html>', False) # st.code - 显示代码块 code = '''def hello(): print("Hello, Streamlit!")''' st.code(code, language='python') st.code(code, language='java') # st.write - 通用显示方法 st.write("2222") st.write(1234) st.write(pd.DataFrame({ '名字': [1, 2, 3, 4], '电话': [10, 20, 30, 50], })) # json a = { 'foo': 'bar', 'baz': 'boz', 'stuff': [ 'stuff 1', 'stuff 2', 'stuff 3', 'stuff 5', ], } st.json(a) st.write(a["stuff"][1]) # st.pyplot - 显示pyplot图表 arr = np.random.normal(1, 1, size=100) plt.hist(arr, bins=50) st.set_option('deprecation.showPyplotGlobalUse', False) st.pyplot() # st.altair - 显示altair图表 df = pd.DataFrame(np.random.randn(200, 3), columns=['a', 'b', 'c']) c = alt.Chart(df).mark_circle().encode(x='a', y='b', size='c', color='c') st.altair_chart(c) # st.vega_lite_chart - 显示Vega-Lite图表 df = pd.DataFrame(np.random.randn(200, 3), columns=['a', 'b', 'c']) st.vega_lite_chart(df, { 'mark': 'circle', 'encoding': {'x': {'field': 'a', 'type': 'quantitative'}, 'y': {'field': 'b', 'type': 'quantitative'}, 'size': {'field': 'c', 'type': 'quantitative'}, 'color': {'field': 'c', 'type': 'quantitative'}, }, }) # st.line_chart - 显示折线图 chart_data = pd.DataFrame(np.random.randn(20, 3), columns=['a', 'b', 'c']) st.line_chart(chart_data) # st.area_chart - 显示区域图 chart_data = pd.DataFrame(np.random.randn(20, 3), columns=['a', 'b', 'c']) st.area_chart(chart_data) # st.map - 显示地图 df = pd.DataFrame(np.random.randn(1000, 2) / [50, 50] + [37.76, -122.4], columns=['lat', 'lon']) st.map(df) 请详细解释以上代码

最新推荐

recommend-type

基于SSM+JSP的企业人事管理信息系统毕业设计(源码+录像+说明).rar

基于SSM+JSP的企业人事管理信息系统毕业设计(源码+录像+说明).rar 【项目技术】 开发语言:Java 框架:ssm+jsp 架构:B/S 数据库:mysql 【演示视频-编号:420】 https://pan.quark.cn/s/b3a97032fae7 【实现功能】 实现了员工基础数据的管理,考勤管理,福利管理,薪资管理,奖惩管理,考核管理,培训管理,招聘管理,公告管理,基础数据管理等功能。
recommend-type

node-v6.12.0-linux-ppc64le.tar.xz

Node.js,简称Node,是一个开源且跨平台的JavaScript运行时环境,它允许在浏览器外运行JavaScript代码。Node.js于2009年由Ryan Dahl创立,旨在创建高性能的Web服务器和网络应用程序。它基于Google Chrome的V8 JavaScript引擎,可以在Windows、Linux、Unix、Mac OS X等操作系统上运行。 Node.js的特点之一是事件驱动和非阻塞I/O模型,这使得它非常适合处理大量并发连接,从而在构建实时应用程序如在线游戏、聊天应用以及实时通讯服务时表现卓越。此外,Node.js使用了模块化的架构,通过npm(Node package manager,Node包管理器),社区成员可以共享和复用代码,极大地促进了Node.js生态系统的发展和扩张。 Node.js不仅用于服务器端开发。随着技术的发展,它也被用于构建工具链、开发桌面应用程序、物联网设备等。Node.js能够处理文件系统、操作数据库、处理网络请求等,因此,开发者可以用JavaScript编写全栈应用程序,这一点大大提高了开发效率和便捷性。 在实践中,许多大型企业和组织已经采用Node.js作为其Web应用程序的开发平台,如Netflix、PayPal和Walmart等。它们利用Node.js提高了应用性能,简化了开发流程,并且能更快地响应市场需求。
recommend-type

node-v6.8.0-linux-ppc64le.tar.xz

Node.js,简称Node,是一个开源且跨平台的JavaScript运行时环境,它允许在浏览器外运行JavaScript代码。Node.js于2009年由Ryan Dahl创立,旨在创建高性能的Web服务器和网络应用程序。它基于Google Chrome的V8 JavaScript引擎,可以在Windows、Linux、Unix、Mac OS X等操作系统上运行。 Node.js的特点之一是事件驱动和非阻塞I/O模型,这使得它非常适合处理大量并发连接,从而在构建实时应用程序如在线游戏、聊天应用以及实时通讯服务时表现卓越。此外,Node.js使用了模块化的架构,通过npm(Node package manager,Node包管理器),社区成员可以共享和复用代码,极大地促进了Node.js生态系统的发展和扩张。 Node.js不仅用于服务器端开发。随着技术的发展,它也被用于构建工具链、开发桌面应用程序、物联网设备等。Node.js能够处理文件系统、操作数据库、处理网络请求等,因此,开发者可以用JavaScript编写全栈应用程序,这一点大大提高了开发效率和便捷性。 在实践中,许多大型企业和组织已经采用Node.js作为其Web应用程序的开发平台,如Netflix、PayPal和Walmart等。它们利用Node.js提高了应用性能,简化了开发流程,并且能更快地响应市场需求。
recommend-type

基于PaddleFL框架的联邦学习医疗影像识别系统源码+GUI界面+说明(高分).zip

基于PaddleFL框架的联邦学习医疗影像识别系统源码+GUI界面+说明.zip该项目是个人毕设项目源码,评审分达到97分,都经过严格调试,确保可以运行!放心下载使用。该项目资源主要针对计算机相关专业的学生或从业者下载使用,也可作为期末课程设计、课程大作业、毕业设计等。 基于PaddleFL框架的联邦学习医疗影像识别系统源码+GUI界面+说明.zip该项目是个人毕设项目源码,评审分达到97分,都经过严格调试,确保可以运行!放心下载使用。该项目资源主要针对计算机相关专业的学生或从业者下载使用,也可作为期末课程设计、课程大作业、毕业设计等。 基于PaddleFL框架的联邦学习医疗影像识别系统源码+GUI界面+说明.zip该项目是个人毕设项目源码,评审分达到97分,都经过严格调试,确保可以运行!放心下载使用。该项目资源主要针对计算机相关专业的学生或从业者下载使用,也可作为期末课程设计、课程大作业、毕业设计等。 基于PaddleFL框架的联邦学习医疗影像识别系统源码+GUI界面+说明.zip该项目是个人毕设项目源码,评审分达到97分,都经过严格调试,确保可以运行!放心下载使用。该项目资源
recommend-type

node-v6.12.2-linux-s390x.tar.xz

Node.js,简称Node,是一个开源且跨平台的JavaScript运行时环境,它允许在浏览器外运行JavaScript代码。Node.js于2009年由Ryan Dahl创立,旨在创建高性能的Web服务器和网络应用程序。它基于Google Chrome的V8 JavaScript引擎,可以在Windows、Linux、Unix、Mac OS X等操作系统上运行。 Node.js的特点之一是事件驱动和非阻塞I/O模型,这使得它非常适合处理大量并发连接,从而在构建实时应用程序如在线游戏、聊天应用以及实时通讯服务时表现卓越。此外,Node.js使用了模块化的架构,通过npm(Node package manager,Node包管理器),社区成员可以共享和复用代码,极大地促进了Node.js生态系统的发展和扩张。 Node.js不仅用于服务器端开发。随着技术的发展,它也被用于构建工具链、开发桌面应用程序、物联网设备等。Node.js能够处理文件系统、操作数据库、处理网络请求等,因此,开发者可以用JavaScript编写全栈应用程序,这一点大大提高了开发效率和便捷性。 在实践中,许多大型企业和组织已经采用Node.js作为其Web应用程序的开发平台,如Netflix、PayPal和Walmart等。它们利用Node.js提高了应用性能,简化了开发流程,并且能更快地响应市场需求。
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

spring添加xml配置文件

1. 创建一个新的Spring配置文件,例如"applicationContext.xml"。 2. 在文件头部添加XML命名空间和schema定义,如下所示: ``` <beans xmlns="http://www.springframework.org/schema/beans" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.springframework.org/schema/beans
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。