def read_file(): result=[] with open("pythom.py") as fin: for line in fin: line = line[:-1] result.append(line.split(",")) return result

时间: 2023-06-12 20:04:15 浏览: 47
这段代码的作用是读取文件 "pythom.py",将每一行按照逗号分隔成一个列表,并将所有列表存储在一个大的列表中,最后返回这个大列表。 具体来说,代码首先创建一个空列表 result。然后使用 with 语句打开文件 "pythom.py",并使用 for 循环遍历文件的每一行。在循环体中,代码将每一行的最后一个字符(也就是换行符 \n)去掉,然后使用 split 方法将这一行按照逗号分隔成一个列表,并将这个列表添加到 result 列表中。最后,代码返回 result 列表。 需要注意的是,如果文件中某一行没有逗号,那么这一行将被分隔成只有一个元素的列表。另外,如果文件中某一行以逗号结尾,那么分隔后最后一个元素将是一个空字符串。
相关问题

def get_cve_data(project_type="java"): cve_data = None if project_type == "java": cve_data = getattr(g, '_java_cve_data', None) if cve_data is None: with open(java_vul_fixing_file) as fin: cve_data = g._java_cve_data = json.load(fin) elif project_type == "c": cve_data = getattr(g, '_c_cve_data', None) if cve_data is None: with open(c_vul_fixing_file) as fin: cve_data = g._c_cve_data = json.load(fin) return cve_data

这段代码定义了一个名为 `get_cve_data` 的函数,用于获取特定项目类型的 CVE 数据。函数接受一个可选的参数 `project_type`,默认值为 `"java"`。 函数首先定义了一个变量 `cve_data` 并将其初始化为 `None`。然后,根据 `project_type` 的值,它会从全局对象 `g` 中获取对应项目类型的 CVE 数据。如果 `cve_data` 为 `None`,则说明还没有加载过该项目类型的数据,函数会从相应的文件中读取 JSON 数据,并将其保存到 `g` 对象中。 最后,函数返回获取到的 CVE 数据。 这段代码假设在全局对象 `g` 中存在用于存储 Java 和 C 项目的 CVE 数据的属性 `_java_cve_data` 和 `_c_cve_data`。它还假设有两个文件路径 `java_vul_fixing_file` 和 `c_vul_fixing_file` 分别指向存储 Java 和 C 项目的 CVE 数据的 JSON 文件。 你可以根据需要,修改文件路径和属性名称以适应你的代码结构和数据存储方式。

import csv import glob import os path = "D:\cclog\cclog" class StartUpTimeAnalysis: def init(self,fn): ext = os.path.splitext(fn)[-1].lower() if ext == '.xml': # self.root = etree.parse(fn) self.prepare_xml() else: with open(fn,'r') as fin: self.text = fin.read() # for line in fin: # if '[START UP TIMING]' in line: # # self.text += '\n%s' % line # self.text += line self.prepare_log() def prepare_xml(self): data = {} _app_init_done_delay = self.app_init_done_delay.split(" ")[-4] _graph_init_done_delay = self.graph_init_done_delay.split(" ")[-4] _render_frame_done_delay = self.render_frame_done_delay.split(" ")[-5] data["_app_init_done_delay"] = _app_init_done_delay data["_graph_init_done_delay"] = _graph_init_done_delay data["_render_frame_done_delay"] = _render_frame_done_delay return data def prepare_log(self): raw = self.text self.app_init_done_delay = '\n'.join( [el for el in raw.split('\n') if 'after appInit @' in el]) self.graph_init_done_delay = '\n'.join( [el for el in raw.split('\n') if 'avm graph init done' in el]) self.render_frame_done_delay = '\n'.join([el for el in raw.split('\n') if 'cc_render_renderFrame num:0' in el]) if name == 'main': line = ['index','LOG_FILE_NAME', 'APP_INIT_DONE_DELAY', 'GRAPH_INIT_DONE_DELAY', 'RENDER_FRAME_DONE_DELAY'] resultFilePath = os.path.join(path, "result_cold_start_time.csv") fout = open(resultFilePath, 'w', newline='') book = csv.writer(fout) book.writerow(line) print(os.path.join(path + '/**/VisualApp.localhost.root.log.ERROR*')) app_init_done_delay = [] graph_init_done_delay = [] render_frame_done_delay = [] for file_name in glob.glob(os.path.join(path + '/**/VisualApp.localhost.root.log.ERROR*')): res = {} index = os.path.dirname(file_name).split("\\")[-1] res['INDEX'] = index res['LOG_FILE_NAME'] = "VisualApp.localhost.root.log.ERROR_" + index st = StartUpTimeAnalysis(file_name) data = st.prepare_xml() res.update(data) app_init_done_delay.append(float(res["_app_init_done_delay"])) graph_init_done_delay.append(float(res["_graph_init_done_delay"])) render_frame_done_delay.append(float(res["_render_frame_done_delay"])) values = res.values() book.writerow(values) DA_MAX = ['', "MAX_VALUE", max(app_init_done_delay), max(graph_init_done_delay), max(render_frame_done_delay)] DA_MIN = ['', "MIN_VALUE", min(app_init_done_delay), min(graph_init_done_delay), min(render_frame_done_delay)] DA_AVG = ['', "AVG_VALUE", sum(app_init_done_delay)/len(app_init_done_delay), sum(graph_init_done_delay)/len(graph_init_done_delay), sum(render_frame_done_delay)/len(render_frame_done_delay)] book.writerow(DA_MAX) book.writerow(DA_MIN) book.writerow(DA_AVG) fout.close() 解释一下每行代码的意思

这段代码是一个用于分析启动时间的脚本。下面是对每行代码的解释: 1. `import csv`: 导入csv模块,用于读写CSV文件。 2. `import glob`: 导入glob模块,用于匹配文件路径。 3. `import os`: 导入os模块,用于操作文件路径。 5. `path = "D:\cclog\cclog"`: 设置日志文件的路径。 7. `class StartUpTimeAnalysis:`: 定义一个名为StartUpTimeAnalysis的类,用于分析启动时间。 8. `def __init__(self, fn):`: 初始化方法,接受一个参数fn,表示日志文件的路径。 10. `ext = os.path.splitext(fn)[-1].lower()`: 获取文件扩展名,并转换为小写。 12. `if ext == '.xml':`: 如果文件扩展名为.xml,则执行以下代码块。 14. `self.prepare_xml()`: 调用prepare_xml方法,准备XML数据。 17. `else:`: 如果文件扩展名不是.xml,则执行以下代码块。 19. `with open(fn, 'r') as fin:`: 打开文件,使用文件句柄fin。 21. `self.text = fin.read()`: 读取文件内容并赋值给self.text。 24. `self.prepare_log()`: 调用prepare_log方法,准备日志数据。 27. `def prepare_xml(self):`: 定义prepare_xml方法,用于准备XML数据。 29. `data = {}`: 创建一个空字典data,用于存储数据。 31. `_app_init_done_delay = self.app_init_done_delay.split(" ")[-4]`: 提取app_init_done_delay的值,并使用空格分割后取倒数第四个元素。 32. `_graph_init_done_delay = self.graph_init_done_delay.split(" ")[-4]`: 提取graph_init_done_delay的值,并使用空格分割后取倒数第四个元素。 33. `_render_frame_done_delay = self.render_frame_done_delay.split(" ")[-5]`: 提取render_frame_done_delay的值,并使用空格分割后取倒数第五个元素。 36. `data["_app_init_done_delay"] = _app_init_done_delay`: 将_app_init_done_delay的值存储到data字典中。 37. `data["_graph_init_done_delay"] = _graph_init_done_delay`: 将_graph_init_done_delay的值存储到data字典中。 38. `data["_render_frame_done_delay"] = _render_frame_done_delay`: 将_render_frame_done_delay的值存储到data字典中。 41. `return data`: 返回data字典。 44. `def prepare_log(self):`: 定义prepare_log方法,用于准备日志数据。 46. `raw = self.text`: 将self.text赋值给raw变量。 49. `self.app_init_done_delay = '\n'.join([el for el in raw.split('\n') if 'after appInit @' in el])`: 通过列表推导式,从日志中提取包含'after appInit @'的行,并使用换行符连接成字符串,存储到self.app_init_done_delay变量中。 52. `self.graph_init_done_delay = '\n'.join([el for el in raw.split('\n') if 'avm graph init done' in el])`: 通过列表推导式,从日志中提取包含'avm graph init done'的行,并使用换行符连接成字符串,存储到self.graph_init_done_delay变量中。 55. `self.render_frame_done_delay = '\n'.join([el for el in raw.split('\n') if 'cc_render_renderFrame num:0' in el])`: 通过列表推导式,从日志中提取包含'cc_render_renderFrame num:0'的行,并使用换行符连接成字符串,存储到self.render_frame_done_delay变量中。 57. `if __name__ == '__main__':`: 如果当前脚本作为主程序运行,则执行以下代码块。 59. `line = ['index', 'LOG_FILE_NAME', 'APP_INIT_DONE_DELAY', 'GRAPH_INIT_DONE_DELAY', 'RENDER_FRAME_DONE_DELAY']`: 创建一个列表line,存储CSV文件的表头。 61. `resultFilePath = os.path.join(path, "result_cold_start_time.csv")`: 使用os.path.join方法拼接路径,生成结果文件的路径。 63. `fout = open(resultFilePath, 'w', newline='')`: 打开结果文件,并使用文件句柄fout。 64. `book = csv.writer(fout)`: 创建一个CSV写入器book。 65. `book.writerow(line)`: 将表头写入CSV文件。 68. `app_init_done_delay = []`: 创建一个空列表app_init_done_delay,用于存储app_init_done_delay的值。 69. `graph_init_done_delay = []`: 创建一个空列表graph_init_done_delay,用于存储graph_init_done_delay的值。 70. `render_frame_done_delay = []`: 创建一个空列表render_frame_done_delay,用于存储render_frame_done_delay的值。 73. `for file_name in glob.glob(os.path.join(path + '/**/VisualApp.localhost.root.log.ERROR*')):`: 遍历日志文件路径中匹配到的文件名。 75. `res = {}`: 创建一个空字典res,用于存储每个文件的结果。 77. `index = os.path.dirname(file_name).split("\\")[-1]`: 提取文件名中的索引,并赋值给index变量。 78. `res['INDEX'] = index`: 将index的值存储到res字典中。 79. `res['LOG_FILE_NAME'] = "VisualApp.localhost.root.log.ERROR_" + index`: 生成日志文件名,并将其存储到res字典中。 81. `st = StartUpTimeAnalysis(file_name)`: 创建StartUpTimeAnalysis类的实例st,传入当前文件的路径作为参数。 82. `data = st.prepare_xml()`: 调用st对象的prepare_xml方法,获取XML数据。 83. `res.update(data)`: 将data字典中的数据更新到res字典中。 86. `app_init_done_delay.append(float(res["_app_init_done_delay"]))`: 将_app_init_done_delay的值转换为浮点数,并添加到app_init_done_delay列表中。 87. `graph_init_done_delay.append(float(res["_graph_init_done_delay"]))`: 将_graph_init_done_delay的值转换为浮点数,并添加到graph_init_done_delay列表中。 88. `render_frame_done_delay.append(float(res["_render_frame_done_delay"]))`: 将_render_frame_done_delay的值转换为浮点数,并添加到render_frame_done_delay列表中。 91. `values = res.values()`: 获取res字典中的所有值,并赋值给values变量。 92. `book.writerow(values)`: 将values写入CSV文件。 96. `DA_MAX = ['', "MAX_VALUE", max(app_init_done_delay), max(graph_init_done_delay), max(render_frame_done_delay)]`: 创建一个列表DA_MAX,存储各项的最大值。 97. `DA_MIN = ['', "MIN_VALUE", min(app_init_done_delay), min(graph_init_done_delay), min(render_frame_done_delay)]`: 创建一个列表DA_MIN,存储各项的最小值。 98. `DA_AVG = ['', "AVG_VALUE", sum(app_init_done_delay)/len(app_init_done_delay), sum(graph_init_done_delay)/len(graph_init_done_delay), sum(render_frame_done_delay)/len(render_frame_done_delay)]`: 创建一个列表DA_AVG,存储各项的平均值。 101. `book.writerow(DA_MAX)`: 将DA_MAX写入CSV文件。 102. `book.writerow(DA_MIN)`: 将DA_MIN写入CSV文件。 103. `book.writerow(DA_AVG)`: 将DA_AVG写入CSV文件。 104. `fout.close()`: 关闭结果文件。

相关推荐

将下列生成器改造成能够匹配edge-connect中的InpaintingModel的预训练模型键值的结构:class Generator(nn.Module): def init(self): super(Generator, self).init() self.encoder = nn.Sequential( nn.Conv2d(3, 64, 3, stride=2, padding=1), nn.BatchNorm2d(64), nn.LeakyReLU(0.2), nn.Conv2d(64, 128, 3, stride=2, padding=1), nn.BatchNorm2d(128), nn.LeakyReLU(0.2), nn.Conv2d(128, 256, 3, stride=2, padding=1), nn.BatchNorm2d(256), nn.LeakyReLU(0.2), nn.Conv2d(256, 512, 3, stride=2, padding=1), nn.BatchNorm2d(512), nn.LeakyReLU(0.2), nn.Conv2d(512, 4000, 1), nn.BatchNorm2d(4000), nn.LeakyReLU(0.2) ) self.decoder = nn.Sequential( nn.ConvTranspose2d(4000, 512, 3, stride=2, padding=1, output_padding=1), nn.BatchNorm2d(512), nn.LeakyReLU(0.2), nn.ConvTranspose2d(512, 256, 3, stride=2, padding=1, output_padding=1), nn.BatchNorm2d(256), nn.LeakyReLU(0.2), nn.ConvTranspose2d(256, 128, 3, stride=2, padding=1, output_padding=1), nn.BatchNorm2d(128), nn.LeakyReLU(0.2), nn.ConvTranspose2d(128, 64, 3, stride=2, padding=1, output_padding=1), nn.BatchNorm2d(64), nn.LeakyReLU(0.2), nn.ConvTranspose2d(64, 3, 3, stride=1, padding=1), nn.Tanh() ) def forward(self, x): x = self.encoder(x) x = self.decoder(x) return x 另外修复部分代码定义为if __name__ == '__main__': root = tk.Tk() root.withdraw() f_path = filedialog.askopenfilename() img = cv.imread(f_path) pre_pts = -1, -1 cv.namedWindow('picture', cv.WINDOW_NORMAL) cv.resizeWindow('picture', 256, 256) cv.moveWindow('picture', 600, 300) cv.imshow('picture', img) cv.setMouseCallback('picture', draw) cv.waitKey(0) cv.destroyAllWindows() mask = cv.inRange(img, (0, 0, 0), (1, 1, 1)) image_tensor = transforms.ToTensor()(img) mask_tensor = transforms.ToTensor()(mask) image_tensor = image_tensor.unsqueeze(0) mask_tensor = mask_tensor.unsqueeze(0) generator = Generator() load_edgeconnect_weights(generator, 'E:/fin/models/gen.pth') image_tensor = image_tensor.cuda() mask_tensor = mask_tensor.cuda() generator = generator.cuda() with torch.no_grad(): output_tensor = generator(image_tensor, mask_tensor)

帮我把以下数据变成json格式:{ "switch_Cash": "Y", "pageMark": "add", "tx_date": "20230305", "cur_no": "1", "sfk_type": "03", "lease_type": "经营租赁", "change_rate": "0", "cap_name": "20220731SYZC000271", "lease_no": "20220731SYZC000271", "contract_key": "6980120220731001", "contract_name": "测试合同20220731-01", "bef_arch_area": "300", "bef_cash_rate: 2.38, "bill_type: 3, "bef_tax_rate: 5, "sfk_term: 4, "bef_tot_pay_time: 2, "bef_eve_amt: 22500, "exe_renew: N, "bef_renew_amt: 0, "bef_renew_eve_amt: 0, "bef_tot_pay_amt: 19047.62, "bef_unset_fin_exp: 221.39, "bef_contract_amt: 45000, "sige_date: 20220731, "bef_arch_position: 广州省佛山市宝芝林, "bef_effect_date: 20220801, "bef_mtr_date: 20240730, "bef_first_fk_date: 20220731,, "bef_renew_eft_date: , bef_renew_mtr_date: , aft_arch_area: 300, aft_bill_type: 3, aft_tax_rate: 5, aft_levy_rate: 5, aft_cash_rate: 2.38, aft_sfk_type: 03, aft_exe_renew: N, is_onchange: N, aft_sfk_term: 4, aft_contract_amt: 45000.00, aft_tot_pay_time: 2, aft_eve_amt: 22500, bef_renew_tot_pay_time: 0, max_term_seqn: 0, aft_effect_date: 20220801, aft_mtr_date: 20240730, aft_first_fk_date: 20220731, aft_renew_eft_date: , aft_renew_mtr_date: , bef_levy_rate: 5, cap_code: fjr0901, lease_no1: 20220731SYZC000271, aft_tot_pay_amt: 42857.14, aft_unset_fin_exp: 184.48999999999796, apply_amt: 23809.52, remark: test0609, change_valid_date: 20230609, cap_name_zh_: 测试资产-20230731-01, cur_no_zh_: 人民币, sfk_type_zh_: 周期性, flowable_: 1, flowable_targetNodeData: {"category":"CWSYS_69","isInput":"1","menuName":"使用权资产变更","pageNo":"cwsys_05_07"}, flowable_file_dataInfo: {"flowable_file_storeType":"undefined","flowable_file_split":false,"flowable_file_canDelete":true,"flowable_file_readOnly":false,"flowable_file_id":"FL-495eabb0-069c-11ee-9b92-59e9b66c35e6"}, cashList: [{"contract_no":"20220731HTXX000001","pay_date":"20220731","no":"20230201XJL000031","pay_amt":"25000.00","term_start_date":"20220801","create_trace_no":"16","tx_date":"0","trace_no":"0","term_end_date":"20230731","pay_sts":"未支付","version":"1","tax_rate":"0.00","term_seqn":"1","tax_amt":"1190.48","pay_sts_val":"0","id":"1","create_date":"20230201","levy_rate":"0.00"},{"contract_no":"20220731HTXX000001","pay_date":"20230731","no":"20230201XJL000032","pay_amt":"20000.00","term_start_date":"20230731","create_trace_no":"16","tx_date":"0","trace_no":"0","term_end_date":"20240730","pay_sts":"未支付","version":"1","tax_rate":"0.00","term_seqn":"2","tax_amt":"952.38","pay_sts_val":"0","id":"1","create_date":"20230201","levy_rate":"0.00"}] }

最新推荐

recommend-type

mysql中find_in_set()函数的使用及in()用法详解

主要介绍了mysql中find_in_set()函数的使用以及in()用法详解,需要的朋友可以参考下
recommend-type

QT5开发及实例配套源代码.zip

QT5开发及实例配套[源代码],Qt是诺基亚公司的C++可视化开发平台,本书以Qt 5作为平台,每个章节在简单介绍开发环境的基础上,用一个小实例,介绍Qt 5应用程序开发各个方面,然后系统介绍Qt 5应用程序的开发技术,一般均通过实例介绍和讲解内容。最后通过三个大实例,系统介绍Qt 5综合应用开发。光盘中包含本书教学课件和书中所有实例源代码及其相关文件。通过学习本书,结合实例上机练习,一般能够在比较短的时间内掌握Qt 5应用技术。本书既可作为Qt 5的学习和参考用书,也可作为大学教材或Qt 5培训用书。
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB柱状图在信号处理中的应用:可视化信号特征和频谱分析

![matlab画柱状图](https://img-blog.csdnimg.cn/3f32348f1c9c4481a6f5931993732f97.png) # 1. MATLAB柱状图概述** MATLAB柱状图是一种图形化工具,用于可视化数据中不同类别或组的分布情况。它通过绘制垂直条形来表示每个类别或组中的数据值。柱状图在信号处理中广泛用于可视化信号特征和进行频谱分析。 柱状图的优点在于其简单易懂,能够直观地展示数据分布。在信号处理中,柱状图可以帮助工程师识别信号中的模式、趋势和异常情况,从而为信号分析和处理提供有价值的见解。 # 2. 柱状图在信号处理中的应用 柱状图在信号处理
recommend-type

用Spring boot和vue写一个登录注册界面

好的,这是一个比较常见的技术问题,我可以为您提供一些参考资料和思路。首先,您可以使用Spring Boot作为后端框架来处理用户认证和注册的逻辑,比如使用Spring Security实现用户登录认证。同时,您还需要设计相应的数据模型和数据库表结构来存储用户信息。在前端方面,您可以使用Vue.js作为框架来构建登录注册页面,使用Axios来发起API请求并和后端进行交互。当然,在实现过程中,还需要考虑一些具体细节,比如数据校验、安全性和用户体验等方面。希望这些信息能够帮助到您。
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

MATLAB柱状图在数据分析中的作用:从可视化到洞察

![MATLAB柱状图在数据分析中的作用:从可视化到洞察](https://img-blog.csdnimg.cn/img_convert/1a36558cefc0339f7836cca7680c0aef.png) # 1. MATLAB柱状图概述** 柱状图是一种广泛用于数据可视化的图表类型,它使用垂直条形来表示数据中不同类别或组别的值。在MATLAB中,柱状图通过`bar`函数创建,该函数接受数据向量或矩阵作为输入,并生成相应的高度条形。 柱状图的优点在于其简单性和易于理解性。它们可以快速有效地传达数据分布和组别之间的比较。此外,MATLAB提供了广泛的定制选项,允许用户调整条形颜色、
recommend-type

命名ACL和拓展ACL标准ACL的具体区别

命名ACL和标准ACL的主要区别在于匹配条件和作用范围。命名ACL可以基于协议、端口和其他条件进行匹配,并可以应用到接口、VLAN和其他范围。而标准ACL只能基于源地址进行匹配,并只能应用到接口。拓展ACL则可以基于源地址、目的地址、协议、端口和其他条件进行匹配,并可以应用到接口、VLAN和其他范围。