作业是创建maven项目,实现使用java操作HDFS的删除文件和下载文件。
时间: 2024-03-26 08:36:15 浏览: 51
基于Java的多工程属性文件统一管理Maven插件设计源码
好的,这是一个关于使用Java操作HDFS的问题。首先,你需要安装Hadoop并启动HDFS服务。然后,你可以使用Hadoop提供的Java API来操作HDFS。下面是一个简单的示例代码,它可以删除HDFS上的文件:
```java
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class HdfsDeleteExample {
public static void main(String[] args) throws Exception {
String hdfsUri = "hdfs://localhost:9000";
String filePath = "/path/to/file";
Configuration conf = new Configuration();
conf.set("fs.defaultFS", hdfsUri);
FileSystem fs = FileSystem.get(conf);
Path path = new Path(filePath);
boolean result = fs.delete(path, true);
if(result) {
System.out.println("File deleted successfully.");
} else {
System.out.println("File deletion failed.");
}
}
}
```
你只需要将 `hdfsUri` 和 `filePath` 替换成你实际使用的HDFS地址和文件路径即可。
如果你需要下载HDFS上的文件,可以使用以下代码:
```java
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class HdfsDownloadExample {
public static void main(String[] args) throws Exception {
String hdfsUri = "hdfs://localhost:9000";
String srcFilePath = "/path/to/src/file";
String destFilePath = "/path/to/dest/file";
Configuration conf = new Configuration();
conf.set("fs.defaultFS", hdfsUri);
FileSystem fs = FileSystem.get(conf);
Path srcPath = new Path(srcFilePath);
Path destPath = new Path(destFilePath);
fs.copyToLocalFile(srcPath, destPath);
System.out.println("File downloaded successfully.");
}
}
```
同样,你只需要将 `hdfsUri`、`srcFilePath` 和 `destFilePath` 替换成你实际使用的HDFS地址和文件路径即可。
希望这些示例代码能够帮助你完成作业。
阅读全文