安装完成的 Hadoop 软件只能让 root 用户使用,要让 hadoop 用户能够 运行 Hadoop 软件,需要将目录/usr/local/src 的所有者改为 hadoop 用户。
时间: 2024-10-14 20:11:06 浏览: 37
安装完Hadoop软件后,默认权限设置可能会导致非-root用户无法访问和运行。为了让Hadoop用户(通常命名为hadoop)能够正常使用,确实需要改变一些文件和目录的所有权。首先,你需要确保"/usr/local/src"这个源码目录的所有权归属到hadoop用户,这可以通过以下命令来实现:
```bash
sudo chown -R hadoop:hadoop /usr/local/src
这里的“-R”表示递归更改当前目录及其所有子目录的所有权。
接下来,如果Hadoop安装路径下的其他目录如"/usr/local/hadoop"也需要hadoop用户能访问,可以类似地执行:
```bash
sudo chown -R hadoop:hadoop /usr/local/hadoop
```
然后,确认hadoop用户有执行Hadoop应用所需的权限,可以通过修改"/etc/sudoers"文件或者直接给hadoop用户增加相应的执行权限:
```bash
sudo chmod ug+x /usr/local/hadoop/bin/*
```
这样就允许hadoop用户在各自的权限范围内运行Hadoop应用程序了。
相关问题
+ exec /usr/local/jdk1.8.0_371/bin/java -Xmx20m -Dflume.root.logger=INFO,console -cp '/opt/flume/conf:/opt/flume/lib/*:/usr/local/hadoop/etc/hadoop:/usr/local/hadoop/share/hadoop/common/lib/*:/usr/local/hadoop/share/hadoop/common/*:/usr/local/hadoop/share/hadoop/hdfs:/usr/local/hadoop/share/hadoop/hdfs/lib/*:/usr/local/hadoop/share/hadoop/hdfs/*:/usr/local/hadoop/share/hadoop/mapreduce/*:/usr/local/hadoop/share/hadoop/yarn:/usr/local/hadoop/share/hadoop/yarn/lib/*:/usr/local/hadoop/share/hadoop/yarn/*:/lib/*' -Djava.library.path=:/usr/local/hadoop/lib/native org.apache.flume.node.Application --name a1 --conf-file conf/flume-conf.properties
这也是一段日志信息,它告诉你Flume启动时执行的Java命令。这个命令会启动一个Java进程,并将Flume的相关配置作为参数传递给它。在这个命令中,-cp参数指定了Flume运行时需要加载的类路径,包括Flume本身的库文件、Hadoop的库文件和其他依赖库文件。-D参数指定了一些Java系统属性,比如日志输出级别、名称等。由于Flume是基于Java开发的,因此这个Java命令对于理解Flume的启动过程非常重要。
/usr/local/src/hadoop/bin/hdfs:行304: /usr/local/src/hadoop/bin/java: 没有那个文件或目录
根据提供的引用内容,这个错误可能是由于找不到Java二进制文件而导致的。请按照以下步骤解决此问题:
1.检查Java是否已正确安装并配置。可以通过运行以下命令来检查Java版本:
```shell
java -version
```
如果Java未正确安装或配置,则需要安装并配置Java。
2.检查hadoop-env.sh文件中的JAVA_HOME路径是否正确。可以通过运行以下命令来编辑hadoop-env.sh文件:
```shell
vi /usr/local/src/hadoop/etc/hadoop/hadoop-env.sh
```
然后查找export JAVA_HOME这行,确保路径正确。
3.检查hdfs脚本是否正确配置。可以通过运行以下命令来编辑hdfs脚本:
```shell
vi /usr/local/src/hadoop/bin/hdfs
```
然后查找/usr/local/src/hadoop/bin/java这一行,确保路径正确。
如果以上步骤都正确,但问题仍然存在,则可能需要重新安装Hadoop。
阅读全文