hadoop@dblab-VirtualBox:/usr/local/hive$ ./bin/hive --service hiveserver2 -hiveconf hive.server2.thrift.port=10000 SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/local/hive/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
时间: 2023-07-07 20:46:07 浏览: 37
这是一个警告信息,它提示当前的 classpath 中存在多个版本的 SLF4J 绑定,其中一个绑定来自 Hive 的依赖库(log4j-slf4j-impl-2.4.1.jar),另一个绑定来自 Hadoop 的依赖库(slf4j-log4j12-1.7.10.jar)。
这个警告通常不会影响 Hive 的正常运行,但是建议将多余的 SLF4J 绑定从 classpath 中移除,以避免潜在的问题。可以将其中一个绑定从相应的依赖库中删除,或者将其排除在 Hive 或 Hadoop 的依赖中。
如果你想要忽略这个警告,可以在启动 HiveServer2 时加上 -v 参数,这样警告信息就会被输出到日志文件中而不是控制台。例如:
```
./bin/hive --service hiveserver2 -hiveconf hive.server2.thrift.port=10000 -v > hive.log 2>&1 &
```
这样启动 HiveServer2 后,警告信息就会被输出到 hive.log 文件中。
相关问题
hadoop@hcf-virtualbox:/us/local/hadoop/MapReduce$ source ~/.bashrc bash: HADOOP HOME/bin/hadoop:没有那个文件或目录
这个错误通常是因为你的 Hadoop 环境变量没有正确设置。请检查以下几个方面:
1. 检查 Hadoop 是否正确安装并且路径设置正确。你可以通过运行 `echo $HADOOP_HOME` 命令来检查 Hadoop 的安装路径是否正确。
2. 检查 PATH 环境变量是否包含 Hadoop 的 bin 目录。你可以通过运行 `echo $PATH` 命令来查看 PATH 环境变量的内容。
3. 检查 .bashrc 文件是否正确设置。你可以编辑 .bashrc 文件并添加以下内容:
```
export HADOOP_HOME=/path/to/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
```
保存并退出 .bashrc 文件,然后运行 `source ~/.bashrc` 命令以使更改生效。
4. 如果你在使用 Hadoop 集群,请确保你在所有节点上都正确设置了 Hadoop 环境变量。
hadoop@hcf-virtualbox:/usr/local/hadoop$ sudo tar -xzvf hbase-2.2.2-bin.tar.gz C /usr tar (child):hbase-2.2.2-bin-tar-gz:无法 open:没有那个文件或目录 tar (child): Error is not recoverable: exiting now tar: Child returned status 2 tar: Error is not recoverable: exiting now
根据你提供的命令和错误提示,可能是以下原因之一导致的问题:
1. 压缩包文件名输入错误:请检查你当前目录下是否存在名为 `hbase-2.2.2-bin.tar.gz` 的文件,确保文件名输入正确。
2. 文件路径输入错误:请检查你的解压路径是否正确,应该是 `/usr/local/hadoop`,而不是 `C /usr`。可以使用绝对路径来避免路径错误。
3. 没有足够的权限:请确保你有足够的权限进行解压操作。使用 `sudo` 命令可以提升权限。
你可以检查以上原因并尝试重新执行命令。如果问题仍然存在,请提供更详细的错误信息或上下文以便更好地帮助你解决问题。
相关推荐















