def logging_config(folder=None, name=None, level=logging.DEBUG, console_level=logging.DEBUG, no_console=True): if not os.path.exists(folder): os.makedirs(folder) for handler in logging.root.handlers: logging.root.removeHandler(handler) logging.root.handlers = [] logpath = os.path.join(folder, name + ".log") print("All logs will be saved to %s" %logpath) logging.root.setLevel(level) formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s') logfile = logging.FileHandler(logpath) logfile.setLevel(level) logfile.setFormatter(formatter) logging.root.addHandler(logfile) if not no_console: logconsole = logging.StreamHandler() logconsole.setLevel(console_level) logconsole.setFormatter(formatter) logging.root.addHandler(logconsole) return folder

时间: 2024-03-29 17:36:13 浏览: 19
这段代码是用来配置日志记录器的,它可以将日志记录到文件中并且可以在控制台中输出。其中,参数 folder 表示日志文件夹,name 表示日志文件名,level 表示日志级别,console_level 表示控制台日志级别,no_console 表示是否在控制台中输出日志。函数首先检查文件夹是否存在,如果不存在则创建文件夹。然后移除所有的处理器并重新设置处理器,设置日志记录的级别和格式,创建一个文件处理器并添加到根处理器中,如果 no_console 的值为 False,则创建一个控制台处理器并添加到根处理器中。最后返回日志文件夹的路径。
相关问题

cls.params["folderId"] = folder_id res = requests.get(url=cls.url, params=cls.params) js_data = json.loads(res.text)["data"] js_data_folders: list[dict] = js_data["FoldersInfo"] js_data_files: list[dict] = js_data["FilesInfo"] df = pd.concat([df, pd.DataFrame(js_data_files)], axis=0) ft = pd.concat([ft, pd.DataFrame(js_data_folders)], axis=0) folders_to_process = js_data_folders.copy() while folders_to_process: folder_id = folders_to_process.pop(0)["FolderId"] cls.params["folderId"] = folder_id res = requests.get(url=cls.url, params=cls.params) js_data = json.loads(res.text)["data"] js_data_folders: list[dict] = js_data["FoldersInfo"] js_data_files: list[dict] = js_data["FilesInfo"] df = pd.concat([df, pd.DataFrame(js_data_files)], axis=0) ft = pd.concat([ft, pd.DataFrame(js_data_folders)], axis=0) folders_to_process.extend(js_data_folders) return df, ft 优化这段代码

这段代码已经进行了一些优化,但是还有一些可以改进的地方: 1. 需要确保请求返回的数据格式和结构是正确的,否则可能会导致代码出错。可以添加一些异常处理机制,例如使用 try-except 捕获异常并记录错误日志。 2. 对于返回的数据,可以使用 data.get("FoldersInfo", []) 和 data.get("FilesInfo", []) 来获取需要的信息,这样可以避免出现 Key Error 的问题。 3. 可以使用列表推导式来简化代码,例如使用 [x["FolderId"] for x in js_data_folders] 来获取所有文件夹的 ID。 下面是一个可能的优化方案: ```python def get_all_file_info(cls, folder_id, df, ft): """ 获取指定文件夹及其子文件夹中的所有文件和文件夹信息 :param cls: 类实例 :param folder_id: 文件夹 ID :param df: 文件信息 DataFrame :param ft: 文件夹信息 DataFrame :return: 文件信息 DataFrame 和文件夹信息 DataFrame """ try: cls.params["folderId"] = folder_id res = requests.get(url=cls.url, params=cls.params) res.raise_for_status() data = json.loads(res.text)["data"] except (requests.HTTPError, ValueError) as e: logging.error(f"Failed to get file info for folder {folder_id}: {e}") return df, ft js_data_folders = data.get("FoldersInfo", []) js_data_files = data.get("FilesInfo", []) df = pd.concat([df, pd.DataFrame(js_data_files)], axis=0) ft = pd.concat([ft, pd.DataFrame(js_data_folders)], axis=0) folders_to_process = [x["FolderId"] for x in js_data_folders] while folders_to_process: folder_id = folders_to_process.pop(0) try: cls.params["folderId"] = folder_id res = requests.get(url=cls.url, params=cls.params) res.raise_for_status() data = json.loads(res.text)["data"] except (requests.HTTPError, ValueError) as e: logging.error(f"Failed to get file info for folder {folder_id}: {e}") continue js_data_folders = data.get("FoldersInfo", []) js_data_files = data.get("FilesInfo", []) df = pd.concat([df, pd.DataFrame(js_data_files)], axis=0) ft = pd.concat([ft, pd.DataFrame(js_data_folders)], axis=0) folders_to_process.extend([x["FolderId"] for x in js_data_folders]) return df, ft ``` 这个优化方案添加了异常处理机制,使用了 data.get() 方法来获取需要的信息,并使用了列表推导式来获取所有文件夹的 ID。如果请求出错,会记录错误日志并跳过当前文件夹的处理。

downloadFileStream = requests.get(url=userDataUrl) filename = "{bucket}/{folder}/{file_name}.csv".format( bucket=config.Configuration["BUCKET"], folder="pinterestUserFile", file_name=today, ) logging.info("filename:") logging.info(filename) logging.info("downloadFileStream:") logging.info(downloadFileStream.content) logging.info("downloadFileStream.status_code:") logging.info(downloadFileStream.status_code) # getCsvUrl生成csv fwrite = blobstore.open(filename, 'w', content_type='text/csv') fwrite.write(downloadFileStream.content.decode("utf-8")) fwrite.close()

这段代码的作用是从指定的 URL 中下载文件,并将其存储到 Google Cloud Storage 中。具体来说,代码使用 requests 库向指定的 URL 发送 GET 请求,获取文件的字节流(content)。然后,代码将文件内容写入到 Google Cloud Storage 中的指定文件中,文件路径和文件名由代码中的变量 filename 指定。最后,代码关闭文件流。 需要注意的是,代码中使用了 Python 的 logging 模块进行日志记录,可以方便地跟踪代码的执行情况。另外,代码中使用了 Google Cloud Storage 的 blobstore 模块进行文件的写入操作,需要先导入该模块。

相关推荐

解释一下“def main(): newBricks = packageVersionsFromConfig() newDict = getDependencies(newBricks, "davinci") sipver = newDict.get(SIP_PACKAGE_NAME) sipver =sipver['release'] logging.info("BRICKS SIP package version is %s", sipver) handleRepo(SIP_PACKAGE_NAME, False) logging.info("Cloning SIP repo, hold your horses, this could take a while (1.8G)") repo = git.Repo(os.path.join(GIT_WORKING_DIR, SIP_PACKAGE_NAME)) repo.git.checkout(sipver) logging.info ("Git status of repo %s is %s ", SIP_PACKAGE_NAME, repo.git.status()) #copying files to SIP folder sipVersion = [] reg_compile = re.compile("SIP_*") for dirpath, dirnames, filenames in os.walk(os.path.join(GIT_WORKING_DIR, SIP_PACKAGE_NAME, "src")): sipVersion = sipVersion + [dirname for dirname in dirnames if reg_compile.match(dirname)] logging.info("Vector SIP version is %s", sipVersion) if input("WARNING !!!! You're about to overwrite your local SIP folder. Are you sure you want to continue ? (y/n)") != "y": exit("I wish you good fortune") for dirpath, dirnames, filenames in os.walk(os.path.join("src","SIP")): for filename in filenames: if filename == "CMakeLists.txt": continue absfile = os.path.join(dirpath, filename) #logging.info(absfile) os.remove(absfile) for dirname in dirnames: if dirname == "Components": continue absdir = os.path.join(dirpath, dirname) #logging.info(absfile) shutil.rmtree(absdir) logging.info("Copying source files from Vector SIP cloned repo to the SIP folder") distutils.dir_util.copy_tree(os.path.join(GIT_WORKING_DIR, SIP_PACKAGE_NAME, "src", sipVersion[0]), os.path.join("src","SIP")) ”

#!/usr/local/python # -- coding: utf-8 -- import requests import json import logging # Function to get the vCenter server session def get_vc_session(vcip, username, password): s.post('https://' + vcip + '/rest/com/vmware/cis/session', auth=(username, password)) return s # Function to get all the VMs from vCenter inventory def get_vms(vcip,host=''): vms = s.get('https://' + vcip + '/rest/vcenter/vm'+"?filter.hosts="+str(host)) return vms def get_hosts(vcip,cluster=''): result = s.get('https://' + vcip + '/rest/vcenter/host'+"?filter.clusters="+str(cluster)) return result def get_clusters(vcip,dc=''): clusters = s.get('https://' + vcip + '/rest/vcenter/cluster'"?filter.datacenters="+str(dc)) return clusters def get_clusterinfo(vcip,cluster): clusterinfo = s.get('https://' + vcip + '/rest/vcenter/cluster/'+cluster) return clusterinfo def get_datacenters(vcip): datacenters = s.get('https://' + vcip + '/rest/vcenter/datacenter') return datacenters def get_datacenterinfo(vcip,datacenter): datacenterinfo = s.get('https://' + vcip + '/rest/vcenter/datacenter/'+datacenter) return datacenterinfo # Function to power on particular VM def poweron_vm(vmmoid, vcip): s.post('https://' + vcip + '/rest/vcenter/vm/' + vmmoid + '/power/start') # Function to power off particular VM def poweroff_vm(vmmoid, vcip): s.post('https://' + vcip + '/rest/vcenter/vm/' + vmmoid + '/power/stop') def getfolder(vcip): folderinfo = s.get('https://' + vcip + '/rest/vcenter/folder') print(folderinfo) print(dir(folderinfo)) return json.loads(folderinfo.content).values()[0] def gethostlistinfo(vcip): info=get_datacenters(vcip) for dc in json.loads(info.content).values()[0]: dcname=dc.get("name") dcvalue = dc.get("datacenter") #print(dcname,dcvalue) info=get_clusters(vcip, dc=dcvalue) for cls in json.loads(info.content).values()[0]: clustername=cls.get("name") clustervalue = cls.get("cluster") #print(dcname,clustername,clustervalue) info=get_hosts(vcip,cluster=clustervalue) for h in json.loads(info.content).values()[0]: hostip=h.get("name") hostvalue = h.get("host") constate = h.get("connection_state") hostPowerState = h.get("power_state") #print(vcip,dcname,clustername,hostip,constate,power_state) info=get_vms(vcip,hostvalue) for v in json.loads(info.content).values()[0]: vmname = v.get("name") vmvalue = v.get("vm") vmMemSize = v.get("memory_size_MiB") vmCpuCount = v.get("cpu_count") vmPowerState = v.get("power_state") print(vcip,dcname,clustername,hostip,constate,hostPowerState,vmname,vmMemSize,vmCpuCount,vmPowerState) ###main#### vcip='172...' username="administrator@vsphere.local" password="YVd5******" logging.captureWarnings(True) global s s = requests.Session() s.verify = False s = get_vc_session(vcip, username, password) info=gethostlistinfo(vcip) 解释这段代码并改正格式

root@in_dev_docker:/apollo# bash scripts/msf_create_lossless_map.sh /apollo/hdmap/pcd_apollo/ 50 /apollo/hdmap/ /apollo/bazel-bin WARNING: Logging before InitGoogleLogging() is written to STDERR E0715 22:08:35.399576 6436 lossless_map_creator.cc:162] num_trials = 1 Pcd folders are as follows: /apollo/hdmap/pcd_apollo/ Resolution: 0.125 Dataset: /apollo/hdmap/pcd_apollo Dataset: /apollo/hdmap/pcd_apollo/ Loaded the map configuration from: /apollo/hdmap//lossless_map/config.xml. Saved the map configuration to: /apollo/hdmap//lossless_map/config.xml. Saved the map configuration to: /apollo/hdmap//lossless_map/config.xml. E0715 22:08:35.767315 6436 lossless_map_creator.cc:264] ieout_poses = 1706 Failed to find match for field 'intensity'. Failed to find match for field 'timestamp'. E0715 22:08:35.769896 6436 velodyne_utility.cc:46] Un-organized-point-cloud E0715 22:08:35.781770 6436 lossless_map_creator.cc:275] Loaded 245443D Points at Trial: 0 Frame: 0. F0715 22:08:35.781791 6436 base_map_node_index.cc:101] Check failed: false *** Check failure stack trace: *** scripts/msf_create_lossless_map.sh: line 11: 6436 Aborted (core dumped) $APOLLO_BIN_PREFIX/modules/localization/msf/local_tool/map_creation/lossless_map_creator --use_plane_inliers_only true --pcd_folders $1 --pose_files $2 --map_folder $IN_FOLDER --zone_id $ZONE_ID --coordinate_type UTM --map_resolution_type single root@in_dev_docker:/apollo# bash scripts/msf_create_lossless_map.sh /apollo/hdmap/pcd_apollo/ 50 /apollo/hdmap/

最新推荐

recommend-type

26. 基于视觉的道路识别技术的智能小车导航源代码.zip

1.智能循迹寻光小车(原埋图+PCB+程序).zip 2.智能循迹小车程序.zip 3.智能寻迹小车c程序和驱动.zip 4. 智能小车寻迹(含霍尔测連)c程序,zip 5.智能小车完整控制程序,zip 6.智能小车黑线循迹、避障、遥控实验综合程序,zip 7.智能小车测速+12864显示 C程序,zip 8. 智能小车(循迹、避障、遥控、测距、电压检测)原理图及源代码,zip 9.智能灭火小车,zip 10,智能搬运机器人程序.zip 11.智能arduino小车源程序,z1p 12.-种基于STM32的语音蓝牙智能小车,zip 13.循迹小车决赛程序,zip 14.循迹小车51程序(超声波 颜色识别 舵机 步进电机 1602).zip 15.寻光小车,zip 16.小车测速程序,zip 17.五路循迹智能小车c源码.zip 18.无线小车原理图和程序,zip 19.四驱智能小车资料包(源程序+原理图+芯片手册+各模块产品手册).zip 20.4WD小车安装教程及程序,z1p 21.四路红外循迹小车决赛程序,zip 22,适合初学者借鉴的arduino智能小车代码集合,zip 23.脑电波控制小车,zip 24.蓝牙智能避障小车,zip 25.基于树莓派监控小车源码.zip 26.基于视觉的道路识别技术的智能小车导航源代码,zip 27.基于STM32F407的超声波智能跟随小车,zip 28.基于arduino的蓝牙智能小车,zip.zip 29.基于51的蓝牙智能小车,zip 30.基于51单片机的红外遥控控制小车程序,zip
recommend-type

295_驾校预约管理系统的设计与实现-源码.zip

提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。
recommend-type

price2016.csv

price2016.csv
recommend-type

三层复式别墅-别墅结构.dwg

三层复式别墅—别墅结构.dwg
recommend-type

13. 循迹小车决赛程序.zip

1.智能循迹寻光小车(原埋图+PCB+程序).zip 2.智能循迹小车程序.zip 3.智能寻迹小车c程序和驱动.zip 4. 智能小车寻迹(含霍尔测連)c程序,zip 5.智能小车完整控制程序,zip 6.智能小车黑线循迹、避障、遥控实验综合程序,zip 7.智能小车测速+12864显示 C程序,zip 8. 智能小车(循迹、避障、遥控、测距、电压检测)原理图及源代码,zip 9.智能灭火小车,zip 10,智能搬运机器人程序.zip 11.智能arduino小车源程序,z1p 12.-种基于STM32的语音蓝牙智能小车,zip 13.循迹小车决赛程序,zip 14.循迹小车51程序(超声波 颜色识别 舵机 步进电机 1602).zip 15.寻光小车,zip 16.小车测速程序,zip 17.五路循迹智能小车c源码.zip 18.无线小车原理图和程序,zip 19.四驱智能小车资料包(源程序+原理图+芯片手册+各模块产品手册).zip 20.4WD小车安装教程及程序,z1p 21.四路红外循迹小车决赛程序,zip 22,适合初学者借鉴的arduino智能小车代码集合,zip 23.脑电波控制小车,zip 24.蓝牙智能避障小车,zip 25.基于树莓派监控小车源码.zip 26.基于视觉的道路识别技术的智能小车导航源代码,zip 27.基于STM32F407的超声波智能跟随小车,zip 28.基于arduino的蓝牙智能小车,zip.zip 29.基于51的蓝牙智能小车,zip 30.基于51单片机的红外遥控控制小车程序,zip
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB柱状图在信号处理中的应用:可视化信号特征和频谱分析

![matlab画柱状图](https://img-blog.csdnimg.cn/3f32348f1c9c4481a6f5931993732f97.png) # 1. MATLAB柱状图概述** MATLAB柱状图是一种图形化工具,用于可视化数据中不同类别或组的分布情况。它通过绘制垂直条形来表示每个类别或组中的数据值。柱状图在信号处理中广泛用于可视化信号特征和进行频谱分析。 柱状图的优点在于其简单易懂,能够直观地展示数据分布。在信号处理中,柱状图可以帮助工程师识别信号中的模式、趋势和异常情况,从而为信号分析和处理提供有价值的见解。 # 2. 柱状图在信号处理中的应用 柱状图在信号处理
recommend-type

hive中 的Metastore

Hive中的Metastore是一个关键的组件,它用于存储和管理Hive中的元数据。这些元数据包括表名、列名、表的数据类型、分区信息、表的存储位置等信息。Hive的查询和分析都需要Metastore来管理和访问这些元数据。 Metastore可以使用不同的后端存储来存储元数据,例如MySQL、PostgreSQL、Oracle等关系型数据库,或者Hadoop分布式文件系统中的HDFS。Metastore还提供了API,使得开发人员可以通过编程方式访问元数据。 Metastore的另一个重要功能是跟踪表的版本和历史。当用户对表进行更改时,Metastore会记录这些更改,并且可以让用户回滚到
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。