寻找hadoop、hive、spark对应版本
时间: 2023-04-18 19:01:01 浏览: 142
以下是Hadoop、Hive、Spark的对应版本:
Hadoop:
- Hadoop 1.x:0.20.x
- Hadoop 2.x:2.2.x、2.4.x、2.6.x、2.7.x、2.8.x、2.9.x、2.10.x
Hive:
- Hive 0.13.x:Hadoop 1.x、Hadoop 2.x
- Hive 1.x:Hadoop 2.x
- Hive 2.x:Hadoop 2.x、Hadoop 3.x
Spark:
- Spark 1.x:Hadoop 1.x、Hadoop 2.x
- Spark 2.x:Hadoop 2.x、Hadoop 3.x
- Spark 3.x:Hadoop 2.x、Hadoop 3.x
注意:以上版本仅供参考,具体版本需根据实际情况选择。
相关问题
hive hadoop对应版本
以下是Hadoop、Hive、Spark的对应版本:
Hadoop:
- Hadoop 1.x:0.20.x
- Hadoop 2.x:2.2.x、2.4.x、2.6.x、2.7.x、2.8.x、2.9.x、2.10.x
Hive:
- Hive 0.13.x:Hadoop 1.x、Hadoop 2.x
- Hive 1.x:Hadoop 2.x
- Hive 2.x:Hadoop 2.x、Hadoop 3.x
Spark:
- Spark 1.x:Hadoop 1.x、Hadoop 2.x
- Spark 2.x:Hadoop 2.x、Hadoop 3.x
- Spark 3.x:Hadoop 2.x、Hadoop 3.x
注意:以上版本仅供参考,具体版本需根据实际情况选择。
修改云主机host文件,添加内网IP,对应映射名为hadoop000,实现云主机自身使用root用户ssh访问hadoop000免密登陆 操作环境: Hadoop/Hive/Spark
1. 首先在云主机上打开终端,使用root用户登录。
2. 执行以下命令打开host文件(这里以Ubuntu系统为例):
```
sudo vim /etc/hosts
```
3. 在host文件中添加以下内容:
```
<内网IP> hadoop000
```
注意:将`<内网IP>`替换为你的hadoop000的内网IP地址。
4. 保存并退出host文件。
5. 在云主机上生成SSH密钥对,执行以下命令:
```
ssh-keygen -t rsa
```
6. 按照提示一路回车即可,生成的密钥对存储在/root/.ssh目录下。
7. 将云主机的公钥复制到hadoop000上,执行以下命令:
```
ssh-copy-id -i /root/.ssh/id_rsa.pub hadoop000
```
8. 输入hadoop000的密码,将云主机的公钥复制到hadoop000上。
9. 测试免密登陆,执行以下命令:
```
ssh hadoop000
```
如果不需要输入密码即可登陆hadoop000,则说明免密登陆已经成功实现了。