centos7安装Apache Hadoop
时间: 2024-08-13 15:05:36 浏览: 109
在 CentOS 7 系统上安装 Apache Hadoop 需要遵循一些步骤。Hadoop 包括 HDFS(分布式文件系统)和 MapReduce 两个主要组件,以及一些辅助服务如 YARN 和 HBase。以下是安装的基本流程:
1. **更新包列表并安装必要的依赖**
```bash
sudo yum update -y
sudo yum install -y java-1.8.0-openjdk-devel epel-release
```
2. **添加 EPEL(Extra Packages for Enterprise Linux)存储库**
```bash
sudo curl -o /etc/yum.repos.d/epel-release.rpm https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm
sudo rpm -Uvh /etc/yum.repos.d/epel-release.rpm
```
3. **安装 Hadoop**
- 添加 Hadoop Yum 源: `sudo yum-config-manager --add-repo http://hadoop.apache.org/releases/Hadoop-3.2.2/repos/hdp-3.2.repo`
- 更新源并安装 Hadoop:
```bash
sudo yum makecache fast
sudo yum install hadoop hdfs namenode datanode -y
```
4. **配置 Hadoop**
- 配置 Hadoop 相关环境变量和配置文件:
```bash
sudo vi /etc/profile.d/hadoop-env.sh
sudo vi /etc/hadoop/conf/core-site.xml
sudo vi /etc/hadoop/conf/hdfs-site.xml
```
- 需要根据实际情况填写配置,比如 `namenode` 和 `datanode` 的 IP 地址。
5. **启动 Hadoop**
- 启动守护进程:
```bash
sudo start hadoop-hdfs-namenode
sudo start hadoop-datanode
```
- 验证集群是否正常运行,可以使用 `jps` 命令查看进程。
6. **安全性和权限设置**
- 可能需要修改 Hadoop 用户和组,以及给数据目录适当的权限。
阅读全文