java.io.IOException: Cannot remove current directory: D:\hadoop\hadoop-2.8.5\workspace\tmp\dfs\name\current
时间: 2023-09-18 12:15:02 浏览: 165
这个错误的原因是文件系统无法删除当前目录。根据提供的引用内容,我们可以看到在HDFSClient类的main方法中,使用了`FileSystem.copyFromLocalFile`方法将一个文件从本地复制到HDFS的根目录下。而在这个方法之前,没有删除HDFS当前目录的操作。
要解决这个问题,可以在复制文件之前,先删除HDFS当前目录。根据引用的解决方法,可以通过删除Hadoop的temp和logs文件夹来解决。具体步骤如下:
1. 打开文件`hadoop-env.sh`,位于`/usr/local/hadoop-2.6.0-cdh5.9.3/etc/hadoop`目录下。可以使用`vim`命令来编辑该文件。
2. 在文件中找到`export HADOOP_HOME=/usr/local/hadoop-2.6.0-cdh5.9.3`这一行,下面添加一行`export HADOOP_SSH_OPTS="-p 22"`。
3. 保存文件并退出编辑模式。
4. 在命令行中执行`rm -rf temp/ logs/`命令,删除Hadoop的temp和logs文件夹。
这样,再次运行程序时,就可以成功删除当前目录了。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [Java后台日常学习环境搭建](https://blog.csdn.net/xyxc202/article/details/108752078)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]
阅读全文