hive 启动job的时候code2,切换为spark就可以启动成功
时间: 2024-05-20 11:15:09 浏览: 133
hive-exec-1.2.1.spark2.jar
Hive 和 Spark 是两个不同的计算框架,它们的内部实现和运行方式都不同。因此,如果你在 Hive 上启动 Job 失败,但是在切换到 Spark 后可以成功启动 Job,那么很可能是因为 Hive 的配置或者环境有问题。
可能的原因包括:
1. Hive 的配置不正确,比如说缺少必要的库文件或者配置参数不正确。
2. Hive 的版本与其他组件不兼容,导致无法启动 Job。
3. Hive 所需要的资源不足,比如说内存不足或者 CPU 资源不足。
在切换到 Spark 后启动成功,说明 Spark 的配置和环境没有问题,因此建议你检查一下 Hive 的配置和环境,看看是否可以解决问题。
阅读全文