hdfs dfs -put /root/college/accidents.csv hdfs://crash/ -put: java.net.UnknownHostException: crash Usage: hadoop fs [generic options] -put [-f] [-p] [-l] <localsrc> ... <dst>
时间: 2024-01-31 08:03:25 浏览: 106
这个错误可能是由于您的Hadoop集群中没有名为 `crash` 的主机名,或者您的Hadoop配置文件中没有正确配置NameNode的地址。
请确保您在 `hdfs://` URI 中指定的主机名或IP地址是正确的,并且您已经正确配置了`core-site.xml`和`hdfs-site.xml`文件中的NameNode地址。
另外,您的命令中似乎多了一个 `-put` 参数。请尝试使用以下命令:
```
hdfs dfs -put /root/college/accidents.csv hdfs://<NameNode>:<Port>/crash/
```
在上面的命令中,将 `<NameNode>` 和 `<Port>` 替换为您的Hadoop集群的NameNode主机名或IP地址以及端口号。
例如,如果您的NameNode主机名为 `localhost`,端口号为 `8020`,则命令应该是这样的:
```
hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/
```
这应该可以解决此错误。
相关问题
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/ sudo: hdfs: command not found
这个错误通常是由于您的系统上未安装Hadoop客户端引起的。请确保您正在运行Hadoop集群的节点上安装了Hadoop客户端。
如果您使用的是CDH或Hortonworks等Hadoop发行版,则可以从官方网站上下载相应的Hadoop客户端,并按照官方文档进行安装和配置。
如果您使用的是Apache Hadoop,则需要从Apache官网上下载Hadoop二进制文件,并按照官方文档进行安装和配置。安装完成后,请确保将Hadoop的bin目录添加到PATH环境变量中:
```
export PATH=$PATH:/path/to/hadoop/bin
```
现在,您可以再次尝试使用以下命令将文件上传到Hadoop集群中:
```
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/
```
这应该可以让您成功将文件上传到Hadoop集群中。
hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/ put: Call From hadoop000/172.18.32.73 to localhost:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
这个错误通常是由于无法连接到Hadoop集群的NameNode引起的。请确保您的Hadoop集群处于运行状态,并且NameNode正在运行。
另外,请确保您在使用 `hdfs dfs` 命令时使用 Hadoop 用户。例如,如果您的Hadoop用户是 `hadoopusr`,则应该使用以下命令:
```
sudo -u hadoopusr hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/
```
这应该可以解决此错误。如果您仍然遇到问题,请检查您的Hadoop配置文件,确保NameNode的地址和端口号正确,并且网络连接正常。
阅读全文