报错Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 23/06/01 20:24:22 INFO SparkContext: Running Spark version 2.0.0 Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/commons/collections/map/UnmodifiableMap at org.apache.hadoop.conf.Configuration$DeprecationContext.<init>(Configuration.java:409) at org.apache.hadoop.conf.Configuration.<clinit>(Configuration.java:448) at org.apache.hadoop.security.UserGroupInformation.ensureInitialized(UserGroupInformation.java:260) at org.apache.hadoop.security.UserGroupInformation.loginUserFromSubject(UserGroupInformation.java:790) at org.apache.hadoop.security.UserGroupInformation.getLoginUser(UserGroupInformation.java:760) at org.apache.hadoop.security.UserGroupInformation.getCurrentUser(UserGroupInformation.java:633) at org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2245) at org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2245) at scala.Option.getOrElse(Option.scala:121) at org.apache.spark.util.Utils$.getCurrentUserName(Utils.scala:2245) at org.apache.spark.SparkContext.<init>(SparkContext.scala:297) at org.apache.spark.SparkContext$.getOrCreate(SparkContext.scala:2256) at org.apache.spark.sql.SparkSession$Builder$$anonfun$8.apply(SparkSession.scala:831) at org.apache.spark.sql.SparkSession$Builder$$anonfun$8.apply(SparkSession.scala:823) at scala.Option.getOrElse(Option.scala:121) at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:823) at spark.sparkMysql$.main(sparkToMysql.scala:11) at spark.sparkMysql.main(sparkToMysql.scala) Caused by: java.lang.ClassNotFoundException: org.apache.commons.collections.map.UnmodifiableMap at java.net.URLClassLoader.findClass(URLClassLoader.java:382) at java.lang.ClassLoader.loadClass(ClassLoader.java:424) at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349) at java.lang.ClassLoader.loadClass(ClassLoader.java:357) ... 18 more Process finished with exi
时间: 2023-08-05 12:07:01 浏览: 364
这个错误是由于缺少commons-collections依赖造成的。你需要将commons-collections添加到你的项目中,可以通过Maven或Gradle来添加。如果你已经添加了commons-collections,那么可能是版本不兼容或者没有正确引用。你可以检查一下你的依赖版本和引用方式是否正确。
相关问题
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
这是 Spark 使用默认的 log4j 配置文件 org/apache/spark/log4j-defaults.properties 的日志输出信息。log4j 是 Java 中一个流行的日志框架,它允许开发者在应用程序中记录和管理日志信息,以便更方便地调试和排查问题。Spark 使用 log4j 来记录各种事件,例如任务的启动、执行和完成,以及错误和异常的信息。默认的 log4j 配置文件定义了 Spark 中每个模块的日志级别和输出方式。
怎么解决Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
这是Spark默认的日志记录配置文件,可以忽略。如果您想更改日志记录级别或其他日志记录配置,请创建自己的log4j配置文件并将其传递给Spark。您可以在启动Spark应用程序时使用以下命令来指定日志记录配置文件:
```
./bin/spark-submit --class <main-class> --master <master-url> --deploy-mode <deploy-mode> --conf spark.driver.extraJavaOptions="-Dlog4j.configuration=<path-to-log4j.properties>" <application-jar> <application-arguments>
```
在上面的命令中,将`<path-to-log4j.properties>`替换为您自己的log4j配置文件的路径。
阅读全文