def load_data(data_file,usecols): ''' 读取数据文件,加载数据 ''' data=[] with open(data_file,'r') as csvfile: data_reader=csv.DictReader(csvfile)#用于按行读取csv文件,并且每一行都会被转化成一个字典类型,其中字典的键值对分别对应着csv文件的表头和该行的数据 # === 数据处理 === for row in data_reader: # 取出每行数据,组合为一个列表放入数据列表中 row_data=[] # 注意csv模块读入的数据全部为字符串类型 for col in usecols: str_val=row[col] #数据类型转换为float,如果是'NA',则返回nan row_data.append(float(str_val) if str_val!='NA' else np.nan) # 如果行数据中不包含nan才保存该行记录 if not any(np.isnan(row_data)): data.append(row_data) # 将data转换为ndarray data_arr=np.array(data) return data_arr

时间: 2024-02-14 20:35:38 浏览: 191
这段代码的作用是读取一个csv文件,并将指定的列转换为浮点数,不包含缺失值('NA')的行数据保存为ndarray类型并返回。其中参数data_file是数据文件路径,usecols是要转换为浮点数的列。代码中使用了csv模块按行读取csv文件,并将每行数据转换为字典类型,然后根据usecols获取指定列的值并转换为浮点数,最后将该行数据保存为一个列表,如果该行数据中包含缺失值则不保存。最终将所有保存的数据转换为ndarray类型并返回。
相关问题

def load_data(data_file, usecols): ''' 读取数据文件,加载数据 ''' data = [] with open(data_file, 'r') as csvfile: data_reader = csv.DictReader(csvfile) # === 数据处理 === for row in data_reader: # 取出每行数据,组合为一个列表放入数据列表中 row_data = [] # 注意csv模块读入的数据全部为字符串类型 for col in usecols: str_val = row[col] # 数据类型转换为float,如果是'NA',则返回nan row_data.append(float(str_val) if str_val != 'NA' else np.nan) # 如果行数据中不包含nan才保存该行记录 if not any(np.isnan(row_data)): data.append(row_data) # 将data转换为ndarray data_arr = np.array(data) return data_arr

这也是一个从数据文件中加载数据的函数定义,但与之前的函数实现方式不同。它使用了Python标准库的csv模块读取数据,而不是pandas库。该函数将每行数据读取为一个字典类型的对象,并使用usecols参数指定需要读取的列。读取完成后,将数据转换为一个二维ndarray数组并返回。 具体实现中,将每行数据中指定的列转换为float类型,如果值为'NA',则转换为numpy库中的nan值。如果该行数据中不包含nan值,则将其加入到待返回的数据列表中。最后,将数据列表转换为ndarray并返回。 需要注意的是,该函数中使用了numpy库,因此需要在函数开头引入该库。 示例调用方式如下: ```python data = load_data("data.csv", ["col1", "col2"]) ``` 该示例代码将从名为"data.csv"的文件中加载"col1"和"col2"两列数据,并返回一个包含这两列数据的ndarray数组。

def get_cve_data(project_type="java"): cve_data = None if project_type == "java": cve_data = getattr(g, '_java_cve_data', None) if cve_data is None: with open(java_vul_fixing_file) as fin: cve_data = g._java_cve_data = json.load(fin) elif project_type == "c": cve_data = getattr(g, '_c_cve_data', None) if cve_data is None: with open(c_vul_fixing_file) as fin: cve_data = g._c_cve_data = json.load(fin) return cve_data

这段代码定义了一个名为 `get_cve_data` 的函数,用于获取特定项目类型的 CVE 数据。函数接受一个可选的参数 `project_type`,默认值为 `"java"`。 函数首先定义了一个变量 `cve_data` 并将其初始化为 `None`。然后,根据 `project_type` 的值,它会从全局对象 `g` 中获取对应项目类型的 CVE 数据。如果 `cve_data` 为 `None`,则说明还没有加载过该项目类型的数据,函数会从相应的文件中读取 JSON 数据,并将其保存到 `g` 对象中。 最后,函数返回获取到的 CVE 数据。 这段代码假设在全局对象 `g` 中存在用于存储 Java 和 C 项目的 CVE 数据的属性 `_java_cve_data` 和 `_c_cve_data`。它还假设有两个文件路径 `java_vul_fixing_file` 和 `c_vul_fixing_file` 分别指向存储 Java 和 C 项目的 CVE 数据的 JSON 文件。 你可以根据需要,修改文件路径和属性名称以适应你的代码结构和数据存储方式。
阅读全文

相关推荐

import json from data_define import Record # 先定义一个抽象类用来做顶层设计,确定有那些功能需要实现 class FileReader: def read_data(self) -> list[Record]: """读取文件的数据,读到的每一条数据都转换为Record对象。将它们都封装到list内返回即可""" pass class TextFileReader(FileReader): def __init__(self,path): self.path = path # 定义成员变量记录文件的路径 # 复写(实现抽象方法)父类的方法 def read_data(self) -> list[Record]: f = open(self.path,"r",encoding="UFT-8") record_list: list[Record] = [] for line in f.readlines(): line = line.strip() # 消除读取到的每一行数据中的\n data_list = line.split(",") record = Record(data_list[0],data_list[1],int(data_list[2]),data_list[3]) record_list.append(record) f.close() return record_list class JsonFileReader(FileReader): def __init__(self,path): self.path = path def read_data(self) -> list[Record]: f = open(self.path,"r",encoding="UFT-8") record_list: list[Record] = [] for line in f.readlines(): data_dict = json.load((line)) record = Record(data_dict["data"],data_dict["order_id"],int(data_dict["money"]),data_dict("province")) record_list.append(record) f.close() return record_list if __name__ == '__main__': text_file_reader = TextFileReader("D:/2011年1月销售数据。txt") json_file_reader = JsonFileReader("D:/2011年2月销售数据JSON.txt") list1 = text_file_reader.read_data() list2 = json_file_reader.resa_data() for l in list1: print(l)

# 定义数据集读取器 def load_data(mode='train'): # 数据文件 datafile = './data/data116648/mnist.json.gz' print('loading mnist dataset from {} ......'.format(datafile)) data = json.load(gzip.open(datafile)) train_set, val_set, eval_set = data # 数据集相关参数,图片高度IMG_ROWS, 图片宽度IMG_COLS IMG_ROWS = 28 IMG_COLS = 28 if mode == 'train': imgs = train_set[0] labels = train_set[1] elif mode == 'valid': imgs = val_set[0] labels = val_set[1] elif mode == 'eval': imgs = eval_set[0] labels = eval_set[1] imgs_length = len(imgs) assert len(imgs) == len(labels), \ "length of train_imgs({}) should be the same as train_labels({})".format( len(imgs), len(labels)) index_list = list(range(imgs_length)) # 读入数据时用到的batchsize BATCHSIZE = 100 # 定义数据生成器 def data_generator(): if mode == 'train': random.shuffle(index_list) imgs_list = [] labels_list = [] for i in index_list: img = np.reshape(imgs[i], [1, IMG_ROWS, IMG_COLS]).astype('float32') img_trans=-img #转变颜色 label = np.reshape(labels[i], [1]).astype('int64') label_trans=label imgs_list.append(img) imgs_list.append(img_trans) labels_list.append(label) labels_list.append(label_trans) if len(imgs_list) == BATCHSIZE: yield np.array(imgs_list), np.array(labels_list) imgs_list = [] labels_list = [] # 如果剩余数据的数目小于BATCHSIZE, # 则剩余数据一起构成一个大小为len(imgs_list)的mini-batch if len(imgs_list) > 0: yield np.array(imgs_list), np.array(labels_list) return data_generator

JSONDecodeError Traceback (most recent call last) Cell In[17], line 5 3 # 读取文件数据 4 with open(path, "r") as f: ----> 5 row_data = json.load(f) 6 # 读取每一条json数据 7 for d in row_data: File C:\ProgramData\anaconda3\lib\json\__init__.py:293, in load(fp, cls, object_hook, parse_float, parse_int, parse_constant, object_pairs_hook, **kw) 274 def load(fp, *, cls=None, object_hook=None, parse_float=None, 275 parse_int=None, parse_constant=None, object_pairs_hook=None, **kw): 276 """Deserialize fp (a .read()-supporting file-like object containing 277 a JSON document) to a Python object. 278 (...) 291 kwarg; otherwise JSONDecoder is used. 292 """ --> 293 return loads(fp.read(), 294 cls=cls, object_hook=object_hook, 295 parse_float=parse_float, parse_int=parse_int, 296 parse_constant=parse_constant, object_pairs_hook=object_pairs_hook, **kw) File C:\ProgramData\anaconda3\lib\json\__init__.py:346, in loads(s, cls, object_hook, parse_float, parse_int, parse_constant, object_pairs_hook, **kw) 341 s = s.decode(detect_encoding(s), 'surrogatepass') 343 if (cls is None and object_hook is None and 344 parse_int is None and parse_float is None and 345 parse_constant is None and object_pairs_hook is None and not kw): --> 346 return _default_decoder.decode(s) 347 if cls is None: 348 cls = JSONDecoder File C:\ProgramData\anaconda3\lib\json\decoder.py:340, in JSONDecoder.decode(self, s, _w) 338 end = _w(s, end).end() 339 if end != len(s): --> 340 raise JSONDecodeError("Extra data", s, end) 341 return obj JSONDecodeError: Extra data: line 2 column 1 (char 15)

import os import json import torch from PIL import Image from torchvision import transforms from model import resnet34 def main(): device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") data_transform = transforms.Compose( [transforms.Resize(256), transforms.CenterCrop(224), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])]) # load image # 指向需要遍历预测的图像文件夹 imgs_root = "../dataset/val" assert os.path.exists(imgs_root), f"file: '{imgs_root}' dose not exist." # 读取指定文件夹下所有jpg图像路径 img_path_list = [os.path.join(imgs_root, i) for i in os.listdir(imgs_root) if i.endswith(".jpg")] # read class_indict json_path = './class_indices.json' assert os.path.exists(json_path), f"file: '{json_path}' dose not exist." json_file = open(json_path, "r") class_indict = json.load(json_file) # create model model = resnet34(num_classes=16).to(device) # load model weights weights_path = "./newresNet34.pth" assert os.path.exists(weights_path), f"file: '{weights_path}' dose not exist." model.load_state_dict(torch.load(weights_path, map_location=device)) # prediction model.eval() batch_size = 8 # 每次预测时将多少张图片打包成一个batch with torch.no_grad(): for ids in range(0, len(img_path_list) // batch_size): img_list = [] for img_path in img_path_list[ids * batch_size: (ids + 1) * batch_size]: assert os.path.exists(img_path), f"file: '{img_path}' dose not exist." img = Image.open(img_path) img = data_transform(img) img_list.append(img) # batch img # 将img_list列表中的所有图像打包成一个batch batch_img = torch.stack(img_list, dim=0) # predict class output = model(batch_img.to(device)).cpu() predict = torch.softmax(output, dim=1) probs, classes = torch.max(predict, dim=1) for idx, (pro, cla) in enumerate(zip(probs, classes)): print("image: {} class: {} prob: {:.3}".format(img_path_list[ids * batch_size + idx], class_indict[str(cla.numpy())], pro.numpy())) if __name__ == '__main__': main()

大家在看

recommend-type

【答题卡识别】 Hough变换答题卡识别【含Matlab源码 250期】.zip

Matlab领域上传的代码均可运行,亲测可用,直接替换数据即可,适合小白; 1、代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可私信博主或扫描博客文章底部QQ名片; 4.1 博客或资源的完整代码提供 4.2 期刊或参考文献复现 4.3 Matlab程序定制 4.4 科研合作 图像识别:表盘识别、车道线识别、车牌识别、答题卡识别、电器识别、跌倒检测、动物识别、发票识别、服装识别、汉字识别、红绿灯识别、火灾检测、疾病分类、交通标志牌识别、口罩识别、裂缝识别、目标跟踪、疲劳检测、身份证识别、人民币识别、数字字母识别、手势识别、树叶识别、水果分级、条形码识别、瑕疵检测、芯片识别、指纹识别
recommend-type

Solar-Wind-Hybrid-Power-plant_matlab_

hybrid solar wind farm using matlab
recommend-type

OZ9350 设计规格书

OZ9350 设计规格书
recommend-type

看nova-scheduler如何选择计算节点-每天5分钟玩转OpenStack

本节重点介绍nova-scheduler的调度机制和实现方法:即解决如何选择在哪个计算节点上启动instance的问题。创建Instance时,用户会提出资源需求,例如CPU、内存、磁盘各需要多少。OpenStack将这些需求定义在flavor中,用户只需要指定用哪个flavor就可以了。可用的flavor在System->Flavors中管理。Flavor主要定义了VCPU,RAM,DISK和Metadata这四类。nova-scheduler会按照flavor去选择合适的计算节点。VCPU,RAM,DISK比较好理解,而Metatdata比较有意思,我们后面会具体讨论。下面介绍nova-s
recommend-type

机器视觉选型计算概述-不错的总结

机器视觉选型计算概述-不错的总结

最新推荐

recommend-type

Python实现读取txt文件中的数据并绘制出图形操作示例

Python是一种强大的编程语言,尤其在数据分析和可视化领域中广泛应用。本示例主要讲解如何使用Python读取txt文件中的数据,并利用这些数据绘制图形。在Python中,读取txt文件通常涉及`open()`函数和文件处理模式,而...
recommend-type

简单的基于 Kotlin 和 JavaFX 实现的推箱子小游戏示例代码

简单的基于 Kotlin 和 JavaFX 实现的推箱子小游戏示例代码。这个游戏包含了基本的地图布局、玩家控制角色推动箱子到目标位置的功能,不过目前还只是一个简单的控制台版本,你可以根据后续的提示进一步扩展为图形界面版本并添加推流相关功能(推流相对复杂些,涉及到网络传输和流媒体协议等知识,需要借助如 FFmpeg 或者专门的流媒体库来实现,这里先聚焦游戏本身的逻辑构建)
recommend-type

WildFly 8.x中Apache Camel结合REST和Swagger的演示

资源摘要信息:"CamelEE7RestSwagger:Camel on EE 7 with REST and Swagger Demo" 在深入分析这个资源之前,我们需要先了解几个关键的技术组件,它们是Apache Camel、WildFly、Java DSL、REST服务和Swagger。下面是这些知识点的详细解析: 1. Apache Camel框架: Apache Camel是一个开源的集成框架,它允许开发者采用企业集成模式(Enterprise Integration Patterns,EIP)来实现不同的系统、应用程序和语言之间的无缝集成。Camel基于路由和转换机制,提供了各种组件以支持不同类型的传输和协议,包括HTTP、JMS、TCP/IP等。 2. WildFly应用服务器: WildFly(以前称为JBoss AS)是一款开源的Java应用服务器,由Red Hat开发。它支持最新的Java EE(企业版Java)规范,是Java企业应用开发中的关键组件之一。WildFly提供了一个全面的Java EE平台,用于部署和管理企业级应用程序。 3. Java DSL(领域特定语言): Java DSL是一种专门针对特定领域设计的语言,它是用Java编写的小型语言,可以在Camel中用来定义路由规则。DSL可以提供更简单、更直观的语法来表达复杂的集成逻辑,它使开发者能够以一种更接近业务逻辑的方式来编写集成代码。 4. REST服务: REST(Representational State Transfer)是一种软件架构风格,用于网络上客户端和服务器之间的通信。在RESTful架构中,网络上的每个资源都被唯一标识,并且可以使用标准的HTTP方法(如GET、POST、PUT、DELETE等)进行操作。RESTful服务因其轻量级、易于理解和使用的特性,已经成为Web服务设计的主流风格。 5. Swagger: Swagger是一个开源的框架,它提供了一种标准的方式来设计、构建、记录和使用RESTful Web服务。Swagger允许开发者描述API的结构,这样就可以自动生成文档、客户端库和服务器存根。通过Swagger,可以清晰地了解API提供的功能和如何使用这些API,从而提高API的可用性和开发效率。 结合以上知识点,CamelEE7RestSwagger这个资源演示了如何在WildFly应用服务器上使用Apache Camel创建RESTful服务,并通过Swagger来记录和展示API信息。整个过程涉及以下几个技术步骤: - 首先,需要在WildFly上设置和配置Camel环境,确保Camel能够运行并且可以作为路由引擎来使用。 - 其次,通过Java DSL编写Camel路由,定义如何处理来自客户端的HTTP请求,并根据请求的不同执行相应的业务逻辑。 - 接下来,使用Swagger来记录和描述创建的REST API。这包括定义API的路径、支持的操作、请求参数和响应格式等。 - 最后,通过Swagger提供的工具生成API文档和客户端代码,以及服务器端的存根代码,从而使得开发者可以更加便捷地理解和使用这些RESTful服务。 这个资源的实践演示对于想要学习如何在Java EE平台上使用Camel集成框架,并且希望提供和记录REST服务的开发者来说是非常有价值的。通过这种方式,开发者可以更加快速和简单地创建和管理Web服务,同时也增强了API的可访问性和可维护性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【声子晶体模拟全能指南】:20年经验技术大佬带你从入门到精通

![【声子晶体模拟全能指南】:20年经验技术大佬带你从入门到精通](https://docs.lammps.org/_images/lammps-gui-main.png) # 摘要 声子晶体作为一种具有周期性结构的材料,在声学隐身、微波和红外领域具有广泛的应用潜力。本文从基础理论出发,深入探讨了声子晶体的概念、物理模型和声子带结构的理论解析,同时介绍了声子晶体的数值模拟方法,包括有限元方法(FEM)、离散元方法(DEM)和分子动力学(MD)。本文还提供了一套完整的声子晶体模拟实践指南,涵盖了模拟前的准备工作、详细的模拟步骤以及结果验证和案例分析。此外,文章探讨了声子晶体模拟的高级技巧和拓展
recommend-type

2024-07-27怎么用python转换成农历日期

在Python中,可以使用`lunarcalendar`库来将公历日期转换为农历日期。首先,你需要安装这个库,可以通过pip命令进行安装: ```bash pip install lunarcalendar ``` 安装完成后,你可以使用以下代码将公历日期转换为农历日期: ```python from lunarcalendar import Converter, Solar, Lunar, DateNotExist # 创建一个公历日期对象 solar_date = Solar(2024, 7, 27) # 将公历日期转换为农历日期 try: lunar_date = Co
recommend-type

FDFS客户端Python库1.2.6版本发布

资源摘要信息:"FastDFS是一个开源的轻量级分布式文件系统,它对文件进行管理,功能包括文件存储、文件同步、文件访问等,适用于大规模文件存储和高并发访问场景。FastDFS为互联网应用量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,保证系统的高可用性和扩展性。 FastDFS 架构包含两个主要的角色:Tracker Server 和 Storage Server。Tracker Server 作用是负载均衡和调度,它接受客户端的请求,为客户端提供文件访问的路径。Storage Server 作用是文件存储,一个 Storage Server 中可以有多个存储路径,文件可以存储在不同的路径上。FastDFS 通过 Tracker Server 和 Storage Server 的配合,可以完成文件上传、下载、删除等操作。 Python 客户端库 fdfs-client-py 是为了解决 FastDFS 文件系统在 Python 环境下的使用。fdfs-client-py 使用了 Thrift 协议,提供了文件上传、下载、删除、查询等接口,使得开发者可以更容易地利用 FastDFS 文件系统进行开发。fdfs-client-py 通常作为 Python 应用程序的一个依赖包进行安装。 针对提供的压缩包文件名 fdfs-client-py-master,这很可能是一个开源项目库的名称。根据文件名和标签“fdfs”,我们可以推测该压缩包包含的是 FastDFS 的 Python 客户端库的源代码文件。这些文件可以用于构建、修改以及扩展 fdfs-client-py 功能以满足特定需求。 由于“标题”和“描述”均与“fdfs-client-py-master1.2.6.zip”有关,没有提供其它具体的信息,因此无法从标题和描述中提取更多的知识点。而压缩包文件名称列表中只有一个文件“fdfs-client-py-master”,这表明我们目前讨论的资源摘要信息是基于对 FastDFS 的 Python 客户端库的一般性了解,而非基于具体文件内容的分析。 根据标签“fdfs”,我们可以深入探讨 FastDFS 相关的概念和技术细节,例如: - FastDFS 的分布式架构设计 - 文件上传下载机制 - 文件同步机制 - 元数据管理 - Tracker Server 的工作原理 - Storage Server 的工作原理 - 容错和数据恢复机制 - 系统的扩展性和弹性伸缩 在实际使用中,开发者可以通过 fdfs-client-py 库来与 FastDFS 文件系统进行交互,利用其提供的 API 接口实现文件的存储、管理等功能,从而开发出高效、可靠的文件处理应用。开发者可以根据项目的实际需求,选择合适的 FastDFS 版本,并根据官方文档进行安装、配置及优化,确保系统稳定运行。 总的来说,fdfs-client-py 是 FastDFS 文件系统与 Python 应用之间的一座桥梁,它使得开发者能够更加方便地将 FastDFS 集成到基于 Python 开发的应用中,发挥出 FastDFS 在文件管理方面的优势。"
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

传感器集成全攻略:ICM-42688-P运动设备应用详解

![传感器集成全攻略:ICM-42688-P运动设备应用详解](https://static.mianbaoban-assets.eet-china.com/xinyu-images/MBXY-CR-ba33fcfbde1d1207d7b8fe45b6ea58d0.png) # 摘要 ICM-42688-P传感器作为一种先进的惯性测量单元,广泛应用于多种运动设备中。本文首先介绍了ICM-42688-P传感器的基本概述和技术规格,然后深入探讨了其编程基础,包括软件接口、数据读取处理及校准测试。接着,本文详细分析了该传感器在嵌入式系统、运动控制和人机交互设备中的实践应用,并且探讨了高级功能开发,
recommend-type

matlab 中实现 astar

在MATLAB中,A*算法是一种用于求解最短路径问题的启发式搜索算法。它适用于带权重的图或网格,特别是当有大量潜在解决方案时,比如迷宫寻路问题。以下是使用MATLAB基本步骤来实现A*算法: 1. **数据结构准备**: - 创建一个二维数组表示地图,其中0代表可以通行的节点,其他值代表障碍物或边界。 - 定义一个队列(通常使用`prioritiesqueue`)来存储待探索的节点及其信息。 2. **初始化**: - 设定起始节点(start),目标节点(goal),以及每个节点的初始g值(从起点到该点的实际代价)和f值(g值加上估计的h值,即启发函数)。 3.