hadoop@dblab-VirtualBox:/usr/local/hive$ ./bin/hive --service hiveserver2 -hiveconf hive.server2.thrift.port=10000 SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/local/hive/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
时间: 2023-07-07 21:46:07 浏览: 263
这是一个警告信息,它提示当前的 classpath 中存在多个版本的 SLF4J 绑定,其中一个绑定来自 Hive 的依赖库(log4j-slf4j-impl-2.4.1.jar),另一个绑定来自 Hadoop 的依赖库(slf4j-log4j12-1.7.10.jar)。
这个警告通常不会影响 Hive 的正常运行,但是建议将多余的 SLF4J 绑定从 classpath 中移除,以避免潜在的问题。可以将其中一个绑定从相应的依赖库中删除,或者将其排除在 Hive 或 Hadoop 的依赖中。
如果你想要忽略这个警告,可以在启动 HiveServer2 时加上 -v 参数,这样警告信息就会被输出到日志文件中而不是控制台。例如:
```
./bin/hive --service hiveserver2 -hiveconf hive.server2.thrift.port=10000 -v > hive.log 2>&1 &
```
这样启动 HiveServer2 后,警告信息就会被输出到 hive.log 文件中。
相关问题
which: no hbase in (/home/jdk1.8.0_144/bin:/home/hadoop-2.8.2/sbin:/home/hadoop-2.8.2/bin:/home/apache-hive-2.1.1-bin/bin:/home/sqoop-1.4.5-cdh5.3.6/bin:/home/jdk1.8.0_144/bin:/home/hadoop-2.8.2/sbin:/home/hadoop-2.8.2/bin:/home/apache-hive-2.1.1-bin/bin:/home/jdk1.8.0_144/bin:/home/hadoop-2.8.2/sbin:/home/hadoop-2.8.2/bin:/home/jdk1.8.0_144/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin) SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/home/apache-hive-2.1.1-bin/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/home/hadoop-2.8.2/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Connecting to jdbc:hive2://localhost:10000 23/07/19 10:32:24 [main]: WARN jdbc.HiveConnection: Failed to connect to localhost:10000 Could not open connection to the HS2 server. Please check the server URI and if the URI is correct, then ask the administrator to check the server status. Error: Could not open client transport with JDBC Uri: jdbc:hive2://localhost:10000: java.net.ConnectException: Connection refused (Connection refused) (state=08S01,code=0) Beeline version 2.1.1 by Apache Hive
根据您提供的信息,您尝试连接到Hive Server2的端口10000时出现了连接失败的错误。该错误提示表明无法连接到Hive Server2,可能有几个原因:
1. Hive Server2未运行:请确保Hive Server2已经成功启动。您可以使用以下命令检查Hive Server2的状态:
```
sudo systemctl status hive-server2
```
如果Hive Server2未运行,请使用以下命令启动它:
```
sudo systemctl start hive-server2
```
2. 端口号不正确:请确保您正在使用正确的端口号。默认情况下,Hive Server2使用端口10000进行通信,但在某些情况下,该端口可能被修改。确保您正在使用正确的端口号。
3. 防火墙或网络问题:如果您的系统上启用了防火墙,请确保允许通过端口10000进行连接。或者,您的网络环境可能存在问题,导致无法连接到端口10000。请检查网络配置和防火墙设置,确保可以从您的系统访问到目标主机的端口10000。
请根据实际情况检查上述可能的原因,并尝试解决问题。如果问题仍然存在,请提供更多详细信息,以便我能够更好地帮助您。
Missing Hive Execution Jar: /usr/local/hive/hive-3.1.3/lib/hive-exec-*.jar
这个错误提示说明在执行Hive命令时,没有找到hive-exec的jar包或者找到的jar包不匹配。你可以检查一下以下几个方面:
1. 确认hive-exec的jar包是否存在于路径/usr/local/hive/hive-3.1.3/lib/下,如果不存在,需要下载并安装hive。
2. 确认你的Hive版本是否与hive-exec的jar包版本匹配。可以尝试升级或降级Hive版本。
3. 确认你的Hadoop版本是否与hive-exec的jar包版本匹配。如果不匹配,也可能导致找不到hive-exec的jar包。
4. 确认你的环境变量HIVE_HOME是否正确设置,并且在PATH中添加$HIVE_HOME/bin目录。
阅读全文