为什么从spark日志里面看不到kafka拉取耗时相关的日志
时间: 2023-02-24 18:12:52 浏览: 159
spark通过kafka-appender指定日志输出到kafka引发的死锁问题
Spark 日志中默认不包含 Kafka 拉取耗时相关的日志,需要手动配置才能看到。你可以在 Spark 配置文件中添加如下配置项:
```
spark.executor.extraJavaOptions=-Dlog4j.logger.org.apache.spark.streaming.kafka.KafkaSource=DEBUG
spark.driver.extraJavaOptions=-Dlog4j.logger.org.apache.spark.streaming.kafka.KafkaSource=DEBUG
```
这样配置后,你就可以在 Spark 日志中看到 Kafka 拉取耗时相关的日志了。
阅读全文