使用HDFS api操作将briup.txt上传 到/user/briup/test2目录
时间: 2023-10-25 11:07:49 浏览: 145
假设你已经配置好了Hadoop的环境变量,并且启动了Hadoop集群。可以使用以下Java代码将本地文件briup.txt上传到HDFS的/user/briup/test2目录:
```java
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
public class HDFSUploadFile {
public static void main(String[] args) throws IOException, URISyntaxException {
// 创建Configuration对象,用于加载Hadoop配置文件
Configuration conf = new Configuration();
// 指定HDFS的地址
URI uri = new URI("hdfs://localhost:9000");
// 创建FileSystem对象,用于操作HDFS
FileSystem fs = FileSystem.get(uri, conf);
// 指定本地文件路径和HDFS文件路径
Path localPath = new Path("briup.txt");
Path hdfsPath = new Path("/user/briup/test2/briup.txt");
// 使用FileSystem对象将本地文件上传到HDFS
fs.copyFromLocalFile(localPath, hdfsPath);
// 关闭FileSystem对象
fs.close();
System.out.println("文件上传成功!");
}
}
```
需要注意的是,上述代码中的HDFS地址是本地单机模式下的地址,如果你的Hadoop集群是分布式的,需要将HDFS地址改为集群中的地址。同时,如果/user/briup/test2目录不存在,需要先使用HDFS的Shell命令或Java API创建该目录。
阅读全文