将本地数据/root/college/accidents.csv上传至HDFS://crash目录下
时间: 2023-07-08 18:52:34 浏览: 78
您可以使用以下命令将本地文件 `/root/college/accidents.csv` 上传至HDFS的 `/crash` 目录下:
```
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv /crash/
```
这将使用 `hdfs` 用户身份将文件上传到HDFS中的 `/crash` 目录。请确保在执行此命令之前已经创建了 `/crash` 目录,并且 `hdfs` 用户具有足够的权限将文件上传到该目录中。
相关问题
数据地址:/root/college/accidents.csv 将本地数据/root/college/accidents.csv上传至HDFS://crash目录下
您可以使用以下命令将本地文件 `/root/college/accidents.csv` 上传到HDFS的 `/crash` 目录下:
```
hdfs dfs -put /root/college/accidents.csv /crash/
```
这将把 `accidents.csv` 文件复制到HDFS的 `/crash` 目录中。请确保您有足够的权限将文件复制到HDFS中的指定目录。
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/ sudo: hdfs: command not found
这个错误通常是由于您的系统上未安装Hadoop客户端引起的。请确保您正在运行Hadoop集群的节点上安装了Hadoop客户端。
如果您使用的是CDH或Hortonworks等Hadoop发行版,则可以从官方网站上下载相应的Hadoop客户端,并按照官方文档进行安装和配置。
如果您使用的是Apache Hadoop,则需要从Apache官网上下载Hadoop二进制文件,并按照官方文档进行安装和配置。安装完成后,请确保将Hadoop的bin目录添加到PATH环境变量中:
```
export PATH=$PATH:/path/to/hadoop/bin
```
现在,您可以再次尝试使用以下命令将文件上传到Hadoop集群中:
```
sudo -u hdfs hdfs dfs -put /root/college/accidents.csv hdfs://localhost:8020/crash/
```
这应该可以让您成功将文件上传到Hadoop集群中。
相关推荐
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)