数据地址:/root/college/accidents.csv 将本地数据/root/college/accidents.csv上传至HDFS://crash目录下
时间: 2023-07-08 10:52:33 浏览: 95
您可以使用以下命令将本地文件 `/root/college/accidents.csv` 上传到HDFS的 `/crash` 目录下:
```
hdfs dfs -put /root/college/accidents.csv /crash/
```
这将把 `accidents.csv` 文件复制到HDFS的 `/crash` 目录中。请确保您有足够的权限将文件复制到HDFS中的指定目录。
相关问题
将本地数据/root/college/accidents.csv上传至HDFS://crash目录下
您可以使用以下命令将本地数据/root/college/accidents.csv上传至HDFS的/crash目录下:
```
hdfs dfs -put /root/college/accidents.csv /crash/
```
其中,hdfs dfs -put是将本地文件上传至HDFS的命令,/root/college/accidents.csv是本地文件的路径,/crash/是HDFS中的目标目录。
执行完毕后,您可以使用以下命令查看/crash目录下是否存在accidents.csv文件:
```
hdfs dfs -ls /crash/
```
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/ sudo: hdfs: command not found
这个错误通常是由于您的系统上未安装Hadoop客户端引起的。请确保您正在运行Hadoop集群的节点上安装了Hadoop客户端。
如果您使用的是CDH或Hortonworks等Hadoop发行版,则可以从官方网站上下载相应的Hadoop客户端,并按照官方文档进行安装和配置。
如果您使用的是Apache Hadoop,则需要从Apache官网上下载Hadoop二进制文件,并按照官方文档进行安装和配置。安装完成后,请确保将Hadoop的bin目录添加到PATH环境变量中:
```
export PATH=$PATH:/path/to/hadoop/bin
```
现在,您可以再次尝试使用以下命令将文件上传到Hadoop集群中:
```
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/
```
这应该可以让您成功将文件上传到Hadoop集群中。
阅读全文