#功图批量绘制 import os import numpy as np import pandas as pd from PIL import Image from matplotlib import pyplot as plt plt.figure(figsize=(4, 2), dpi=50, frameon=False) ax = plt.axes([0, 0, 1, 1]) grey = plt.get_cmap('Greys') seismic = plt.get_cmap('bwr') datapath = "G:/功图excel/0" conds = os.listdir(datapath) for cond in conds: data = pd.read_csv("G:/功图excel/0/" + cond) os.mkdir(r"G:/功图/0/" + cond[:-4]) # print(data) # 首先将pandas读取的数据转化为array data = np.array(data) # 然后转化为list形式 data = data.tolist() # print(data) n = 0 for i in data: if np.isnan(i).any(): # 检查数据是否包含 NaN 值 continue # 如果包含,则跳过该迭代 WY = i[0:200] ZH = i[200:400] # print(len(WY),len(ZH)) plt.plot(WY[0: 100], ZH[0: 100], color=seismic(5 / 5.0), lw=3) plt.plot(WY[100: 200], ZH[100: 200], color=seismic(0 / 5.0), lw=3) plt.xticks([]) plt.yticks([]) ax.spines['right'].set_visible(False) ax.spines['top'].set_visible(False) ax.spines['left'].set_visible(False) ax.spines['bottom'].set_visible(False) Y_ALL = [] Y_ALL.extend(list(map(float, ZH))) Y_MAX, Y_MIN = np.max(Y_ALL), np.min(Y_ALL) ax.set_ylim(np.min([0, Y_MIN - (Y_MAX - Y_MIN) * 0.1]), Y_MAX + (Y_MAX - Y_MIN) * 0.1) # plt.axis('off') plt.savefig("G:/功图/0/" + cond[:-4] + '/' + str(n), dpi=50) # plt.savefig(newpath + "GT/" + cond + "/" + data['IMGNAME'][i], dpi=50) plt.clf() # plt.show() n = n + 1,这段画图代码使用了 ax.spines 属性去掉边框,但是画出来的图怎么还有边框

时间: 2024-03-27 18:35:01 浏览: 106
PDF

Matplotlib.pyplot 三维绘图的实现示例

根据你提供的代码,使用 `ax.spines` 属性去掉边框是可以去掉边框的。但是,如果你还想要进一步去掉图像周围的空白边距,可以使用 `plt.tight_layout()` 函数,将图像周围的空白边距调整为最小值。示例代码如下: ```python import os import numpy as np import pandas as pd from PIL import Image from matplotlib import pyplot as plt plt.figure(figsize=(4, 2), dpi=50, frameon=False) ax = plt.axes([0, 0, 1, 1]) grey = plt.get_cmap('Greys') seismic = plt.get_cmap('bwr') datapath = "G:/功图excel/0" conds = os.listdir(datapath) for cond in conds: data = pd.read_csv("G:/功图excel/0/" + cond) os.mkdir(r"G:/功图/0/" + cond[:-4]) data = np.array(data) data = data.tolist() n = 0 for i in data: if np.isnan(i).any(): continue WY = i[0:200] ZH = i[200:400] plt.plot(WY[0: 100], ZH[0: 100], color=seismic(5 / 5.0), lw=3) plt.plot(WY[100: 200], ZH[100: 200], color=seismic(0 / 5.0), lw=3) plt.xticks([]) plt.yticks([]) ax.spines['right'].set_visible(False) ax.spines['top'].set_visible(False) ax.spines['left'].set_visible(False) ax.spines['bottom'].set_visible(False) Y_ALL = [] Y_ALL.extend(list(map(float, ZH))) Y_MAX, Y_MIN = np.max(Y_ALL), np.min(Y_ALL) ax.set_ylim(np.min([0, Y_MIN - (Y_MAX - Y_MIN) * 0.1]), Y_MAX + (Y_MAX - Y_MIN) * 0.1) plt.savefig("G:/功图/0/" + cond[:-4] + '/' + str(n), dpi=50) plt.clf() n = n + 1 # 调整图像周围的空白边距为最小值 plt.tight_layout() ``` 在上面的代码中,我添加了 `plt.tight_layout()` 函数来调整图像周围的空白边距为最小值。
阅读全文

相关推荐

import numpy as np import pandas as pd import matplotlib.pyplot as plt import PIL import torch from torchvision import transforms import torchvision #调用已经训练好的FCN语义分割网络 model = torchvision.models.segmentation.fcn_resnet101(pretrained=True) model.eval() #读取照片 image=PIL.Image.open('1234.jpg') #照片进行预处理 image_transf=transforms.Compose([ transforms.ToTensor(), transforms.Normalize(mean=[0.485,0.456,0.406], std=[0.229,0.224,0.225]) ] ) image_tensor=image_transf(image).unsqueeze(0) output=model(image_tensor)['out'] output.shape #读取图片,进行分割,总共21个通道,因为在21个数据集上训练 #转化为2维图像 outputarg=torch.argmax(output.squeeze(),dim=0).numpy() outputarg def decode_seqmaps(image,label_colors,nc=21): r=np.zeros_like(image).astype(np.uint8) g=np.zeros_like(image).astype(np.uint8) b=np.zeros_like(image).astype(np.uint8) for cla in range(0,nc): idx = image == cla r[idx] = label_colors[cla,0] g[idx] = label_colors[cla,1] b[idx] = label_colors[cla,2] rgbimage= np.stack([r,g,b],axis=2) return rgbimage import os os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE" label_colors =np.array([(0,0,0), #0=background (128,0,0),(0,128,0),(128,128,0),(0,0,128), #1=airplane,2=bicycle,3=bird,4=boat (128,0,128),(0,128,128),(128,128,128),(64,0,0), #6=bus,7=car,8=cat,9=chair (192,0,0),(64,128,0),(192,128,0),(64,0,128), #10=cow,11=dining table,12=dog,13=horse (192,0,128),(64,128,128),(192,128,128),(0,64,0), #14=motorbike,15=person,16=potted plant,17=sheep (128,64,0),(0,192,0),(128,192,0),(0,64,128) #18=sofa,19=train,20=tv/monitor ]) outputrgb=decode_seqmaps(outputarg,label_colors) plt.figure(figsize=(20,8)) plt.subplot(1,2,1) plt.imshow(image) plt.axis('off') plt.subplot(1,2,2) plt.imshow(outputrgb) plt.axis('off') plt.subplots_adjust(wspace=0.05) plt.show()使用了哪些深度学习的模型和方法

import streamlit as st import pandas as pd import numpy as np import matplotlib.pyplot as plt import altair as alt from PIL import Image # st.header - 显示主标题 st.header('学习streamlit模块')#显示主标题 # st.subheader - 显示副标题 st.subheader('副标题用法')#显示副标题 # st.text - 显示文本 st.text('显示定宽文本') # st.markdown - 显示markdown文本 st.markdown('Streamlit <html>', True) st.markdown('Streamlit <html>', False) # st.code - 显示代码块 code = '''def hello(): print("Hello, Streamlit!")''' st.code(code, language='python') st.code(code, language='java') # st.write - 通用显示方法 st.write("2222") st.write(1234) st.write(pd.DataFrame({ '名字': [1, 2, 3, 4], '电话': [10, 20, 30, 50], })) # json a = { 'foo': 'bar', 'baz': 'boz', 'stuff': [ 'stuff 1', 'stuff 2', 'stuff 3', 'stuff 5', ], } st.json(a) st.write(a["stuff"][1]) # st.pyplot - 显示pyplot图表 arr = np.random.normal(1, 1, size=100) plt.hist(arr, bins=50) st.set_option('deprecation.showPyplotGlobalUse', False) st.pyplot() # st.altair - 显示altair图表 df = pd.DataFrame(np.random.randn(200, 3), columns=['a', 'b', 'c']) c = alt.Chart(df).mark_circle().encode(x='a', y='b', size='c', color='c') st.altair_chart(c) # st.vega_lite_chart - 显示Vega-Lite图表 df = pd.DataFrame(np.random.randn(200, 3), columns=['a', 'b', 'c']) st.vega_lite_chart(df, { 'mark': 'circle', 'encoding': {'x': {'field': 'a', 'type': 'quantitative'}, 'y': {'field': 'b', 'type': 'quantitative'}, 'size': {'field': 'c', 'type': 'quantitative'}, 'color': {'field': 'c', 'type': 'quantitative'}, }, }) # st.line_chart - 显示折线图 chart_data = pd.DataFrame(np.random.randn(20, 3), columns=['a', 'b', 'c']) st.line_chart(chart_data) # st.area_chart - 显示区域图 chart_data = pd.DataFrame(np.random.randn(20, 3), columns=['a', 'b', 'c']) st.area_chart(chart_data) # st.map - 显示地图 df = pd.DataFrame(np.random.randn(1000, 2) / [50, 50] + [37.76, -122.4], columns=['lat', 'lon']) st.map(df) 请详细解释以上代码

最新推荐

recommend-type

用Python去除图像的黑色或白色背景实例

import matplotlib.pyplot as plt import scipy.misc ``` 接下来,我们打开图像文件并将其转换为灰度模式,以便简化处理过程。在这个例子中,我们假设图像名为"1.jpg": ```python img = Image.open('1.jpg') img1...
recommend-type

python入门-30.寻找列表中只出现一次的数字-寻找单身狗.py

python入门-30.寻找列表中只出现一次的数字——寻找单身狗.py
recommend-type

布尔教育linux优化笔记

linux优化笔记,配套视频:https://www.bilibili.com/list/474327672?sid=4496133&spm_id_from=333.999.0.0&desc=1
recommend-type

火炬连体网络在MNIST的2D嵌入实现示例

资源摘要信息:"Siamese网络是一种特殊的神经网络,主要用于度量学习任务中,例如人脸验证、签名识别或任何需要判断两个输入是否相似的场景。本资源中的实现例子是在MNIST数据集上训练的,MNIST是一个包含了手写数字的大型数据集,广泛用于训练各种图像处理系统。在这个例子中,Siamese网络被用来将手写数字图像嵌入到2D空间中,同时保留它们之间的相似性信息。通过这个过程,数字图像能够被映射到一个欧几里得空间,其中相似的图像在空间上彼此接近,不相似的图像则相对远离。 具体到技术层面,Siamese网络由两个相同的子网络构成,这两个子网络共享权重并且并行处理两个不同的输入。在本例中,这两个子网络可能被设计为卷积神经网络(CNN),因为CNN在图像识别任务中表现出色。网络的输入是成对的手写数字图像,输出是一个相似性分数或者距离度量,表明这两个图像是否属于同一类别。 为了训练Siamese网络,需要定义一个损失函数来指导网络学习如何区分相似与不相似的输入对。常见的损失函数包括对比损失(Contrastive Loss)和三元组损失(Triplet Loss)。对比损失函数关注于同一类别的图像对(正样本对)以及不同类别的图像对(负样本对),鼓励网络减小正样本对的距离同时增加负样本对的距离。 在Lua语言环境中,Siamese网络的实现可以通过Lua的深度学习库,如Torch/LuaTorch,来构建。Torch/LuaTorch是一个强大的科学计算框架,它支持GPU加速,广泛应用于机器学习和深度学习领域。通过这个框架,开发者可以使用Lua语言定义模型结构、配置训练过程、执行前向和反向传播算法等。 资源的文件名称列表中的“siamese_network-master”暗示了一个主分支,它可能包含模型定义、训练脚本、测试脚本等。这个主分支中的代码结构可能包括以下部分: 1. 数据加载器(data_loader): 负责加载MNIST数据集并将图像对输入到网络中。 2. 模型定义(model.lua): 定义Siamese网络的结构,包括两个并行的子网络以及最后的相似性度量层。 3. 训练脚本(train.lua): 包含模型训练的过程,如前向传播、损失计算、反向传播和参数更新。 4. 测试脚本(test.lua): 用于评估训练好的模型在验证集或者测试集上的性能。 5. 配置文件(config.lua): 包含了网络结构和训练过程的超参数设置,如学习率、批量大小等。 Siamese网络在实际应用中可以广泛用于各种需要比较两个输入相似性的场合,例如医学图像分析、安全验证系统等。通过本资源中的示例,开发者可以深入理解Siamese网络的工作原理,并在自己的项目中实现类似的网络结构来解决实际问题。"
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

L2正则化的终极指南:从入门到精通,揭秘机器学习中的性能优化技巧

![L2正则化的终极指南:从入门到精通,揭秘机器学习中的性能优化技巧](https://img-blog.csdnimg.cn/20191008175634343.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80MTYxMTA0NQ==,size_16,color_FFFFFF,t_70) # 1. L2正则化基础概念 在机器学习和统计建模中,L2正则化是一个广泛应用的技巧,用于改进模型的泛化能力。正则化是解决过拟
recommend-type

如何构建一个符合GB/T19716和ISO/IEC13335标准的信息安全事件管理框架,并确保业务连续性规划的有效性?

构建一个符合GB/T19716和ISO/IEC13335标准的信息安全事件管理框架,需要遵循一系列步骤来确保信息系统的安全性和业务连续性规划的有效性。首先,组织需要明确信息安全事件的定义,理解信息安全事态和信息安全事件的区别,并建立事件分类和分级机制。 参考资源链接:[信息安全事件管理:策略与响应指南](https://wenku.csdn.net/doc/5f6b2umknn?spm=1055.2569.3001.10343) 依照GB/T19716标准,组织应制定信息安全事件管理策略,明确组织内各个层级的角色与职责。此外,需要设置信息安全事件响应组(ISIRT),并为其配备必要的资源、
recommend-type

Angular插件增强Application Insights JavaScript SDK功能

资源摘要信息:"Microsoft Application Insights JavaScript SDK-Angular插件" 知识点详细说明: 1. 插件用途与功能: Microsoft Application Insights JavaScript SDK-Angular插件主要用途在于增强Application Insights的Javascript SDK在Angular应用程序中的功能性。通过使用该插件,开发者可以轻松地在Angular项目中实现对特定事件的监控和数据收集,其中包括: - 跟踪路由器更改:插件能够检测和报告Angular路由的变化事件,有助于开发者理解用户如何与应用程序的导航功能互动。 - 跟踪未捕获的异常:该插件可以捕获并记录所有在Angular应用中未被捕获的异常,从而帮助开发团队快速定位和解决生产环境中的问题。 2. 兼容性问题: 在使用Angular插件时,必须注意其与es3不兼容的限制。es3(ECMAScript 3)是一种较旧的JavaScript标准,已广泛被es5及更新的标准所替代。因此,当开发Angular应用时,需要确保项目使用的是兼容现代JavaScript标准的构建配置。 3. 安装与入门: 要开始使用Application Insights Angular插件,开发者需要遵循几个简单的步骤: - 首先,通过npm(Node.js的包管理器)安装Application Insights Angular插件包。具体命令为:npm install @microsoft/applicationinsights-angularplugin-js。 - 接下来,开发者需要在Angular应用的适当组件或服务中设置Application Insights实例。这一过程涉及到了导入相关的类和方法,并根据Application Insights的官方文档进行配置。 4. 基本用法示例: 文档中提到的“基本用法”部分给出的示例代码展示了如何在Angular应用中设置Application Insights实例。示例中首先通过import语句引入了Angular框架的Component装饰器以及Application Insights的类。然后,通过Component装饰器定义了一个Angular组件,这个组件是应用的一个基本单元,负责处理视图和用户交互。在组件类中,开发者可以设置Application Insights的实例,并将插件添加到实例中,从而启用特定的功能。 5. TypeScript标签的含义: TypeScript是JavaScript的一个超集,它添加了类型系统和一些其他特性,以帮助开发更大型的JavaScript应用。使用TypeScript可以提高代码的可读性和可维护性,并且可以利用TypeScript提供的强类型特性来在编译阶段就发现潜在的错误。文档中提到的标签"TypeScript"强调了该插件及其示例代码是用TypeScript编写的,因此在实际应用中也需要以TypeScript来开发和维护。 6. 压缩包子文件的文件名称列表: 在实际的项目部署中,可能会用到压缩包子文件(通常是一些JavaScript库的压缩和打包后的文件)。在本例中,"applicationinsights-angularplugin-js-main"很可能是该插件主要的入口文件或者压缩包文件的名称。在开发过程中,开发者需要确保引用了正确的文件,以便将插件的功能正确地集成到项目中。 总结而言,Application Insights Angular插件是为了加强在Angular应用中使用Application Insights Javascript SDK的能力,帮助开发者更好地监控和分析应用的运行情况。通过使用该插件,可以跟踪路由器更改和未捕获异常等关键信息。安装与配置过程简单明了,但是需要注意兼容性问题以及正确引用文件,以确保插件能够顺利工作。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

L1正则化模型诊断指南:如何检查模型假设与识别异常值(诊断流程+案例研究)

![L1正则化模型诊断指南:如何检查模型假设与识别异常值(诊断流程+案例研究)](https://www.dmitrymakarov.ru/wp-content/uploads/2022/10/lr_lev_inf-1024x578.jpg) # 1. L1正则化模型概述 L1正则化,也被称为Lasso回归,是一种用于模型特征选择和复杂度控制的方法。它通过在损失函数中加入与模型权重相关的L1惩罚项来实现。L1正则化的作用机制是引导某些模型参数缩小至零,使得模型在学习过程中具有自动特征选择的功能,因此能够产生更加稀疏的模型。本章将从L1正则化的基础概念出发,逐步深入到其在机器学习中的应用和优势