安装 hadoop的详细步骤
时间: 2025-01-02 16:48:05 浏览: 9
安装Hadoop需要几个关键步骤,这里以Linux环境为例,一般分为下载、配置环境变量、搭建Hadoop集群(包括NameNode和DataNodes)以及启动服务:
1. **下载Hadoop**: 访问Apache Hadoop官网(https://hadoop.apache.org/downloads.html),选择适合的操作系统和版本下载tar.gz文件。
2. **解压并移动到合适目录**:
```bash
tar -xvf hadoop-版本.tar.gz
sudo mv hadoop-版本 /usr/local/hadoop
```
3. **配置环境变量**:
- 配置`conf/core-site.xml`,设置Hadoop的根目录(`fs.defaultFS`)。
- 配置`conf/hdfs-site.xml`,设置NameNode地址和DataNode的副本数等。
- 将Hadoop的bin目录添加到PATH环境变量中:
```bash
echo "export PATH=/usr/local/hadoop/bin:$PATH" >> ~/.bashrc
source ~/.bashrc
```
4. **格式化NameNode(如果首次安装)**:
```bash
hdfs namenode -format
```
5. **启动守护进程**:
- 启动HDFS服务(NameNode和DataNodes):
```
start-dfs.sh
```
- 启动YARN服务(资源管理器):
```
start-yarn.sh
```
6. **验证安装**:
使用命令 `jps` 检查各个服务是否正在运行,并通过浏览器访问`http://localhost:50070` 查看Hadoop Web UI确认Hadoop已经成功安装。
阅读全文