虚拟机环境下安装Hadoop3.1.0全过程(超详细手把手一条龙教学)
时间: 2024-09-21 22:05:24 浏览: 66
windows环境下的hadoop3.1.0依赖,winutils
在虚拟机环境下安装Hadoop 3.1.0是一个相对复杂的过程,但我会尽量提供详细的步骤。这里假设你已经安装了Linux发行版并配置了JDK。以下是安装Hadoop 3.1.0的基本步骤:
1. **准备环境**:
- 安装必要的软件包(如curl、tar等),可以在终端输入 `sudo apt-get install curl tar`。
2. **下载Hadoop**:
使用`wget`或`curl`从Apache官网下载Hadoop源码包。例如:
```
wget https://www.apache.org/dist/hadoop/common/hadoop-3.1.0/hadoop-3.1.0.tar.gz
```
3. **解压文件**:
```
sudo tar -xvf hadoop-3.1.0.tar.gz
```
4. **创建目录结构**:
```bash
sudo mkdir -p /usr/local/hadoop
sudo chown -R $USER:$USER /usr/local/hadoop
```
5. **移动目录到安装位置**:
```
sudo mv hadoop-3.1.0 /usr/local/hadoop
```
6. **配置环境变量**:
- 编辑`~/.bashrc`添加如下内容(替换`YOUR_HADOOP_HOME`为实际路径):
```bash
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export JAVA_HOME=/path/to/your/jdk
source ~/.bashrc
```
7. **配置核心-site.xml**:
```
cp $HADOOP_HOME/etc/hadoop/core-site.xml.template $HADOOP_HOME/etc/hadoop/core-site.xml
```
打开编辑器(比如`vi`或`nano`),修改`<property>`标签内的`hadoop.tmp.dir`为你希望的临时文件夹路径。
8. **配置hdfs-site.xml**:
同样复制模板并编辑`dfs.replication`等参数。
9. **格式化HDFS集群**:
```
hdfs namenode -format
```
10. **启动服务**:
- 首先启动HDFS守护进程 (`start-dfs.sh`)
- 查看HDFS状态 (`jps`应该能看到NameNode和DataNode进程)
- 可以通过命令 `hdfs dfs -ls /` 来测试HDFS是否可以正常访问。
**注意事项**:
- 每次修改完配置文件记得保存并重启服务才会生效。
- 请确保有足够的磁盘空间和网络连接。
阅读全文