根据文件中的代码和已知条件,改进代码,要求训练,测试,验证路径清晰

时间: 2024-10-25 21:09:05 浏览: 31
为了使代码中训练、测试和验证路径更加清晰,并且更好地组织代码结构,可以进行以下改进: 1. **定义常量**:将路径定义为常量,便于管理和修改。 2. **分离数据加载函数**:分别编写加载训练集、验证集和测试集的函数。 3. **优化模型评估和预测部分**:确保模型在训练后能够正确评估和预测。 以下是改进后的代码: ```python import os import json import numpy as np import pandas as pd from PIL import Image import tensorflow as tf from sklearn.model_selection import train_test_split from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Dropout from tensorflow.keras.preprocessing.image import ImageDataGenerator from tensorflow.keras.optimizers import Adam from sklearn.metrics import f1_score, accuracy_score # 定义路径常量 TRAIN_DATA_DIR = "C:\\Users\\24067\\Desktop\\peach_split\\train" VAL_DATA_DIR = "C:\\Users\\24067\\Desktop\\peach_split\\val" TEST_DATA_DIR = "C:\\Users\\24067\\Desktop\\peach_split\\test" TRAIN_LABEL_PATH = "C:\\Users\\24067\\Desktop\\train_label.json" VAL_LABEL_PATH = "C:\\Users\\24067\\Desktop\\val_label.json" TEST_LABEL_PATH = "C:\\Users\\24067\\Desktop\\train_label.json" OUTPUT_PATH = "C:\\Users\\24067\\Desktop\\data\\submission.csv" # 加载数据集 def load_data(data_dir, label_path): with open(label_path, 'r') as f: labels_list = json.load(f) labels = {item['文件名']: item['标签'] for item in labels_list if '文件名' in item and '标签' in item} images = [] targets = [] for file_name, label in labels.items(): img_path = os.path.join(data_dir, file_name) if not os.path.exists(img_path): continue img = Image.open(img_path).resize((128, 128)) img_array = np.array(img) / 255.0 images.append(img_array) targets.append(label) if len(images) == 0: raise ValueError("No valid images found.") return np.array(images), np.array(targets) # 加载训练集和验证集 X_train, y_train = load_data(TRAIN_DATA_DIR, TRAIN_LABEL_PATH) X_val, y_val = load_data(VAL_DATA_DIR, VAL_LABEL_PATH) # 标签映射 label_map = {'特级': 3, '一级': 2, '二级': 1, '三级': 0} y_train = np.array([label_map[label] for label in y_train]) y_val = np.array([label_map[label] for label in y_val]) # 创建模型 def create_model(input_shape=(128, 128, 3)): model = Sequential([ Conv2D(32, (3, 3), activation='relu', input_shape=input_shape), MaxPooling2D((2, 2)), Conv2D(64, (3, 3), activation='relu'), MaxPooling2D((2, 2)), Conv2D(128, (3, 3), activation='relu'), MaxPooling2D((2, 2)), Flatten(), Dense(128, activation='relu'), Dropout(0.5), Dense(4, activation='softmax') ]) return model # 实例化模型 model = create_model() # 编译模型 model.compile(optimizer=Adam(learning_rate=0.001), loss='sparse_categorical_crossentropy', metrics=['accuracy']) # 图像增强 datagen = ImageDataGenerator( rotation_range=20, width_shift_range=0.2, height_shift_range=0.2, horizontal_flip=True, vertical_flip=True ) # 训练模型 history = model.fit(datagen.flow(X_train, y_train, batch_size=32), epochs=1, validation_data=(X_val, y_val)) # 评估模型 def evaluate_model(model, X, y): predictions = model.predict(X) predicted_labels = np.argmax(predictions, axis=1) accuracy = accuracy_score(y, predicted_labels) f1 = f1_score(y, predicted_labels, average='weighted') print(f'Accuracy: {accuracy:.4f}') print(f'F1 Score: {f1:.4f}') return accuracy, f1 evaluate_model(model, X_val, y_val) # 预测测试集并保存结果 def predict_and_save(test_data_dir, test_label_path, output_path): test_images = [] test_file_names = [] with open(test_label_path, 'r') as f: test_labels_list = json.load(f) test_labels = {item['文件名']: item['标签'] for item in test_labels_list if '文件名' in item and '标签' in item} for file_name in test_labels.keys(): img_path = os.path.join(test_data_dir, file_name) if not os.path.exists(img_path): continue img = Image.open(img_path).resize((128, 128)) img_array = np.array(img) / 255.0 test_images.append(img_array) test_file_names.append(file_name) test_images = np.array(test_images) predictions = model.predict(test_images) predicted_labels = np.argmax(predictions, axis=1) label_map_inv = {v: k for k, v in label_map.items()} predicted_labels = [label_map_inv[label] for label in predicted_labels] submission_df = pd.DataFrame({'文件名': test_file_names, '标签': predicted_labels}) submission_df.to_csv(output_path, index=False) # 进行预测并保存结果 predict_and_save(TEST_DATA_DIR, TEST_LABEL_PATH, OUTPUT_PATH) ``` ### 改进点说明: 1. **路径常量**:将所有路径定义为常量,方便管理和维护。 2. **数据加载函数**:将加载训练集、验证集和测试集的功能分离到不同的函数中,提高代码可读性和复用性。 3. **标签映射**:在加载数据时直接进行标签映射,避免重复操作。 4. **模型评估和预测**:确保模型在训练后能够正确评估和预测,并生成最终的提交文件。 这样改进后的代码结构更加清晰,路径管理也更加规范。
阅读全文

相关推荐

大家在看

recommend-type

yolo开发人工智能小程序经验和总结.zip

yolo开发人工智能小程序经验和总结.zipyolo开发人工智能小程序经验和总结.zipyolo开发人工智能小程序经验和总结.zipyolo开发人工智能小程序经验和总结.zip
recommend-type

基于MATLAB的表面裂纹识别与检测

基于MATLAB的表面裂纹识别与检测,该代码可以根据自己需要去识别与检测特定对象的表面裂纹,例如,路面裂纹检测、钢管裂纹检测、平面裂纹检测、种子等农产品表面裂纹检测。
recommend-type

Modbus on AT32 MCU

本应用笔记介绍了如何将FreeMODBUS协议栈移植到AT32F43x单片机方法。本文档提供的源代码演 示了使用Modbus的应用程序。单片机作为Modbus从机,可通过RS485或RS232与上位机相连,与 Modbus Poll调试工具(Modbus主机)进行通讯。 注:本应用笔记对应的代码是基于雅特力提供的V2.x.x 板级支持包(BSP)而开发,对于其他版本BSP,需要 注意使用上的区别。
recommend-type

论文研究-一种面向HDFS中海量小文件的存取优化方法.pdf

为了解决HDFS(Hadoop distributed file system)在存储海量小文件时遇到的NameNode内存瓶颈等问题,提高HDFS处理海量小文件的效率,提出一种基于小文件合并与预取的存取优化方案。首先通过分析大量小文件历史访问日志,得到小文件之间的关联关系,然后根据文件相关性将相关联的小文件合并成大文件后再存储到HDFS。从HDFS中读取数据时,根据文件之间的相关性,对接下来用户最有可能访问的文件进行预取,减少了客户端对NameNode节点的访问次数,提高了文件命中率和处理速度。实验结果证明,该方法有效提升了Hadoop对小文件的存取效率,降低了NameNode节点的内存占用率。
recommend-type

Gephi Cookbook 无水印原版pdf

Gephi Cookbook 英文无水印原版pdf pdf所有页面使用FoxitReader、PDF-XChangeViewer、SumatraPDF和Firefox测试都可以打开 本资源转载自网络,如有侵权,请联系上传者或csdn删除 查看此书详细信息请在美国亚马逊官网搜索此书

最新推荐

recommend-type

vscode使用官方C/C++插件无法进行代码格式化问题

在使用Visual Studio Code (VSCode) 进行C/C++开发时,官方的C/C++插件提供了一种方便的方式来格式化代码,即通过`.clang-format`配置文件自定义代码风格。然而,当尝试使用`clang-format -style=llvm -dump-config ...
recommend-type

Python实现代码块儿折叠

在Python编程环境中,有时为了提高代码的可读性和管理性,我们需要将某些代码块折叠起来,隐藏不重要的细节。Python本身并不直接支持内置的代码折叠功能,但大多数现代的Python集成开发环境(IDE),如PyCharm,提供...
recommend-type

Python 40行代码实现人脸识别功能

代码中,`sys.argv`用于接收命令行参数,包括人脸关键点检测器和人脸识别模型的路径。接下来,代码会进行人脸检测、关键点提取、描述子生成等操作,最后通过欧氏距离计算进行人脸识别。 总结来说,Python实现人脸...
recommend-type

数据挖掘实验报告+代码+截图

在实验中,该算法可能用于根据已知特征预测商品的类别或用户的行为。 五、k-均值聚类算法 k-均值算法是一种无监督学习方法,用于将数据点划分到k个不同的簇中。每个簇的中心是该簇内所有数据点的平均值。在实验中...
recommend-type

dbc文件编写流程及代码格式

DBC (DBC - Database for CAN) 文件是用于存储CAN (Controller Area...通过细致的编辑和验证,可以创建出准确描述CAN总线系统通信的DBC文件。在团队协作中,合理分工,明确责任,有助于提高DBC文件的编写效率和准确性。
recommend-type

Spring Websocket快速实现与SSMTest实战应用

标题“websocket包”指代的是一个在计算机网络技术中应用广泛的组件或技术包。WebSocket是一种网络通信协议,它提供了浏览器与服务器之间进行全双工通信的能力。具体而言,WebSocket允许服务器主动向客户端推送信息,是实现即时通讯功能的绝佳选择。 描述中提到的“springwebsocket实现代码”,表明该包中的核心内容是基于Spring框架对WebSocket协议的实现。Spring是Java平台上一个非常流行的开源应用框架,提供了全面的编程和配置模型。在Spring中实现WebSocket功能,开发者通常会使用Spring提供的注解和配置类,简化WebSocket服务端的编程工作。使用Spring的WebSocket实现意味着开发者可以利用Spring提供的依赖注入、声明式事务管理、安全性控制等高级功能。此外,Spring WebSocket还支持与Spring MVC的集成,使得在Web应用中使用WebSocket变得更加灵活和方便。 直接在Eclipse上面引用,说明这个websocket包是易于集成的库或模块。Eclipse是一个流行的集成开发环境(IDE),支持Java、C++、PHP等多种编程语言和多种框架的开发。在Eclipse中引用一个库或模块通常意味着需要将相关的jar包、源代码或者配置文件添加到项目中,然后就可以在Eclipse项目中使用该技术了。具体操作可能包括在项目中添加依赖、配置web.xml文件、使用注解标注等方式。 标签为“websocket”,这表明这个文件或项目与WebSocket技术直接相关。标签是用于分类和快速检索的关键字,在给定的文件信息中,“websocket”是核心关键词,它表明该项目或文件的主要功能是与WebSocket通信协议相关的。 文件名称列表中的“SSMTest-master”暗示着这是一个版本控制仓库的名称,例如在GitHub等代码托管平台上。SSM是Spring、SpringMVC和MyBatis三个框架的缩写,它们通常一起使用以构建企业级的Java Web应用。这三个框架分别负责不同的功能:Spring提供核心功能;SpringMVC是一个基于Java的实现了MVC设计模式的请求驱动类型的轻量级Web框架;MyBatis是一个支持定制化SQL、存储过程以及高级映射的持久层框架。Master在这里表示这是项目的主分支。这表明websocket包可能是一个SSM项目中的模块,用于提供WebSocket通讯支持,允许开发者在一个集成了SSM框架的Java Web应用中使用WebSocket技术。 综上所述,这个websocket包可以提供给开发者一种简洁有效的方式,在遵循Spring框架原则的同时,实现WebSocket通信功能。开发者可以利用此包在Eclipse等IDE中快速开发出支持实时通信的Web应用,极大地提升开发效率和应用性能。
recommend-type

电力电子技术的智能化:数据中心的智能电源管理

# 摘要 本文探讨了智能电源管理在数据中心的重要性,从电力电子技术基础到智能化电源管理系统的实施,再到技术的实践案例分析和未来展望。首先,文章介绍了电力电子技术及数据中心供电架构,并分析了其在能效提升中的应用。随后,深入讨论了智能化电源管理系统的组成、功能、监控技术以及能
recommend-type

通过spark sql读取关系型数据库mysql中的数据

Spark SQL是Apache Spark的一个模块,它允许用户在Scala、Python或SQL上下文中查询结构化数据。如果你想从MySQL关系型数据库中读取数据并处理,你可以按照以下步骤操作: 1. 首先,你需要安装`PyMySQL`库(如果使用的是Python),它是Python与MySQL交互的一个Python驱动程序。在命令行输入 `pip install PyMySQL` 来安装。 2. 在Spark环境中,导入`pyspark.sql`库,并创建一个`SparkSession`,这是Spark SQL的入口点。 ```python from pyspark.sql imp
recommend-type

新版微软inspect工具下载:32位与64位版本

根据给定文件信息,我们可以生成以下知识点: 首先,从标题和描述中,我们可以了解到新版微软inspect.exe与inspect32.exe是两个工具,它们分别对应32位和64位的系统架构。这些工具是微软官方提供的,可以用来下载获取。它们源自Windows 8的开发者工具箱,这是一个集合了多种工具以帮助开发者进行应用程序开发与调试的资源包。由于这两个工具被归类到开发者工具箱,我们可以推断,inspect.exe与inspect32.exe是用于应用程序性能检测、问题诊断和用户界面分析的工具。它们对于开发者而言非常实用,可以在开发和测试阶段对程序进行深入的分析。 接下来,从标签“inspect inspect32 spy++”中,我们可以得知inspect.exe与inspect32.exe很有可能是微软Spy++工具的更新版或者是有类似功能的工具。Spy++是Visual Studio集成开发环境(IDE)的一个组件,专门用于Windows应用程序。它允许开发者观察并调试与Windows图形用户界面(GUI)相关的各种细节,包括窗口、控件以及它们之间的消息传递。使用Spy++,开发者可以查看窗口的句柄和类信息、消息流以及子窗口结构。新版inspect工具可能继承了Spy++的所有功能,并可能增加了新功能或改进,以适应新的开发需求和技术。 最后,由于文件名称列表仅提供了“ed5fa992d2624d94ac0eb42ee46db327”,没有提供具体的文件名或扩展名,我们无法从这个文件名直接推断出具体的文件内容或功能。这串看似随机的字符可能代表了文件的哈希值或是文件存储路径的一部分,但这需要更多的上下文信息来确定。 综上所述,新版的inspect.exe与inspect32.exe是微软提供的开发者工具,与Spy++有类似功能,可以用于程序界面分析、问题诊断等。它们是专门为32位和64位系统架构设计的,方便开发者在开发过程中对应用程序进行深入的调试和优化。同时,使用这些工具可以提高开发效率,确保软件质量。由于这些工具来自Windows 8的开发者工具箱,它们可能在兼容性、效率和用户体验上都经过了优化,能够为Windows应用的开发和调试提供更加专业和便捷的解决方案。
recommend-type

如何运用电力电子技术实现IT设备的能耗监控

# 摘要 随着信息技术的快速发展,IT设备能耗监控已成为提升能效和减少环境影响的关键环节。本文首先概述了电力电子技术与IT设备能耗监控的重要性,随后深入探讨了电力电子技术的基础原理及其在能耗监控中的应用。文章详细分析了IT设备能耗监控的理论框架、实践操作以及创新技术的应用,并通过节能改造案例展示了监控系统构建和实施的成效。最后,本文展望了未来能耗监控技术的发展趋势,同时