def logger_info(logger_name, log_path='default_logger.log'): log = logging.getLogger(logger_name) if log.hasHandlers(): print('LogHandlers exists!') else: print('LogHandlers setup!') level = logging.INFO formatter = logging.Formatter('%(asctime)s.%(msecs)03d : %(message)s', datefmt='%y-%m-%d %H:%M:%S') fh = logging.FileHandler(log_path, mode='a') fh.setFormatter(formatter) log.setLevel(level) log.addHandler(fh) # print(len(log.handlers)) sh = logging.StreamHandler() sh.setFormatter(formatter) log.addHandler(sh)
时间: 2024-04-13 12:24:46 浏览: 160
这段代码是一个用于设置日志记录的函数。它接受一个日志记录器名称和可选的日志文件路径作为参数。如果已经存在与给定名称相同的日志处理程序,函数将输出"LogHandlers exists!",否则将设置新的日志处理程序。
函数首先创建一个日志记录器对象,并检查是否已经存在处理程序。如果存在,则输出"LogHandlers exists!",表示日志已经设置过了。如果不存在处理程序,则创建一个新的处理程序,并设置其级别为INFO。接下来,创建一个文件处理程序(FileHandler)用于将日志记录到文件中,并设置格式化器(Formatter)以指定日志消息的格式。然后,将文件处理程序添加到日志记录器中。
接下来,创建一个流处理程序(StreamHandler)用于将日志消息输出到控制台,并设置相同的格式化器。最后,将流处理程序添加到日志记录器中。
这段代码中的注释部分可能是用于调试目的,它会输出日志处理程序的数量。
相关问题
优化代码: import logging class DAELogControl(): def __init__(self, path): self.path = path self.logger = logging.getLogger(__name__) self.consoleFormatter = logging.Formatter("[%(asctime)s] %(levelname)s (%(filename)s:%(lineno)d): %(message)30s...") # self.consoleFormatter = logging.Formatter("%(levelname)s [%(asctime)s] (%(filename)s:%(lineno)d): %(message)30s...") self.fileFormatter = logging.Formatter("[%(asctime)s] %(levelname)s (%(filename)s:%(lineno)d): %(message)s") # self.fileFormatter = logging.Formatter("%(levelname)s [%(asctime)s] (%(filename)s:%(lineno)d): %(message)s") self.logger.propagate = False self.logger.setLevel(logging.DEBUG) self.consoleHandler = logging.StreamHandler() self.consoleHandler.setFormatter(self.consoleFormatter) self.consoleHandler.setLevel(logging.INFO) self.logger.addHandler(self.consoleHandler) self.fileHandler = logging.FileHandler(self.path) self.fileHandler.setFormatter(self.fileFormatter) self.fileHandler.setLevel(logging.DEBUG) self.logger.addHandler(self.fileHandler) def dae_data_err(self, msg): self.logger.debug(msg, stacklevel=2) def dae_info(self, msg): self.logger.info(msg, stacklevel=2) def dae_error(self, msg): self.logger.error(msg, stacklevel=2)
可以通过以下几个方面来优化代码:
1. 代码格式化:对代码进行格式化,使其更具可读性,例如在类定义的左括号前添加空格,代码缩进等。
2. 使用默认参数:将默认参数添加到函数参数中,以避免重复代码。例如,将默认的日志格式添加到日志处理程序中。
3. 删除重复代码:删除重复代码,例如在日志处理程序中使用了相同的格式化器。
4. 使用更具描述性的命名:使用更具描述性的变量和函数名称可以使代码更易于理解和维护。
下面是优化后的代码:
```python
import logging
class DAELogControl:
def __init__(self, path):
self.path = path
self.logger = logging.getLogger(__name__)
self.logger.propagate = False
self.logger.setLevel(logging.DEBUG)
self.consoleHandler = logging.StreamHandler()
self.consoleHandler.setLevel(logging.INFO)
self.consoleHandler.setFormatter(logging.Formatter("[%(asctime)s] %(levelname)s (%(filename)s:%(lineno)d): %(message)30s..."))
self.logger.addHandler(self.consoleHandler)
self.fileHandler = logging.FileHandler(self.path)
self.fileHandler.setLevel(logging.DEBUG)
self.fileHandler.setFormatter(logging.Formatter("[%(asctime)s] %(levelname)s (%(filename)s:%(lineno)d): %(message)s"))
self.logger.addHandler(self.fileHandler)
def dae_data_err(self, msg):
self.logger.debug(msg, stacklevel=2)
def dae_info(self, msg):
self.logger.info(msg, stacklevel=2)
def dae_error(self, msg):
self.logger.error(msg, stacklevel=2)
```
通过这些优化,代码变得更加简洁和易于理解。
def __init__(self, glueContext: GlueContext, config: argparse.Namespace): """ init function. :param glueContext: the glueContext. the spark session can get from glueContext. :param config: Obtained by parsing from the Glue Job Input parameter list. """ self.config = config self.logger = logging.getLogger(self.config.table_full_name) self.logger.info(f'job init with params: {vars(self.config)}') self.glueContext = glueContext self.spark = glueContext.spark_session self.table_schema = Custom_Schema(self.spark).get_schema(self.config.source_file_schema) self.source_df_count = 0 self.destination_df_count = 0 self.load_date = datetime.now() self.logger.info(f'job load date: {self.load_date}') self.database_name, self.table_name = self.config.table_full_name.split('.') self.set_spark_configs()
这是一个Python类的初始化函数,它接受两个参数:glueContext和config。其中,glueContext是Glue的上下文,可以从中获取Spark会话,而config则是从Glue作业的输入参数列表中解析得到的命名空间。在初始化函数中,将这两个参数分别赋值给实例变量self.glueContext和self.config,并且设置了一些其他的实例变量,比如self.logger、self.spark、self.table_schema等。最后,调用了self.set_spark_configs()方法。可以看到,这个类是用来处理一些数据加载和转换的任务的,具体实现需要看其他方法的实现。
阅读全文