hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/ put: Call From hadoop000/172.18.32.73 to localhost:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
时间: 2023-07-31 17:09:09 浏览: 161
这个错误通常是由于无法连接到Hadoop集群的NameNode引起的。请确保您的Hadoop集群处于运行状态,并且NameNode正在运行。
另外,请确保您在使用 `hdfs dfs` 命令时使用 Hadoop 用户。例如,如果您的Hadoop用户是 `hadoopusr`,则应该使用以下命令:
```
sudo -u hadoopusr hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/
```
这应该可以解决此错误。如果您仍然遇到问题,请检查您的Hadoop配置文件,确保NameNode的地址和端口号正确,并且网络连接正常。
相关问题
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/ sudo: hdfs: command not found
这个错误通常是由于您的系统上未安装Hadoop客户端引起的。请确保您正在运行Hadoop集群的节点上安装了Hadoop客户端。
如果您使用的是CDH或Hortonworks等Hadoop发行版,则可以从官方网站上下载相应的Hadoop客户端,并按照官方文档进行安装和配置。
如果您使用的是Apache Hadoop,则需要从Apache官网上下载Hadoop二进制文件,并按照官方文档进行安装和配置。安装完成后,请确保将Hadoop的bin目录添加到PATH环境变量中:
```
export PATH=$PATH:/path/to/hadoop/bin
```
现在,您可以再次尝试使用以下命令将文件上传到Hadoop集群中:
```
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/
```
这应该可以让您成功将文件上传到Hadoop集群中。
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/ sudo: unknown user: hdfs sudo: unable to initialize policy plugin
这个错误通常是由于您的系统上没有 `hdfs` 用户引起的。如果您使用的是CDH或Hortonworks等Hadoop发行版,则通常会自动创建 `hdfs` 用户。但如果您使用的是Apache Hadoop,则需要手动创建 `hdfs` 用户。
请按照以下步骤在您的系统上创建 `hdfs` 用户:
1. 打开终端并以root用户身份登录。
2. 执行以下命令创建 `hdfs` 用户:
```
useradd -r hdfs
```
3. 设置 `hdfs` 用户的主目录:
```
usermod -d /home/hdfs hdfs
```
4. 为 `hdfs` 用户设置密码:
```
passwd hdfs
```
5. 确保 `hdfs` 用户拥有Hadoop的相关目录和文件的读写权限:
```
chown -R hdfs:hadoop /path/to/hadoop
chmod -R 755 /path/to/hadoop
```
6. 现在,您可以使用以下命令以 `hdfs` 用户身份执行Hadoop命令:
```
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/
```
这应该可以解决此错误。
阅读全文