hadoop fs -put <linux上文件> <hdfs上的路径>
时间: 2023-11-12 18:07:53 浏览: 154
这个命令是将 Linux 上的文件上传到 HDFS 中指定的路径。具体的命令格式如下:
```
hadoop fs -put <linux上文件> <hdfs上的路径>
```
其中,`<linux上文件>`是要上传的文件的路径,可以是绝对路径或相对路径;`<hdfs上的路径>`是要上传到的 HDFS 中的路径,也可以是绝对路径或相对路径。
例如,如果要将 `/home/user/data.txt` 这个文件上传到 HDFS 的 `/data` 目录下,可以使用以下命令:
```
hadoop fs -put /home/user/data.txt /data/
```
注意,在上传文件之前,需要确保 HDFS 中的目标路径已经存在,否则会报错。可以使用 `hadoop fs -mkdir` 命令创建目录。
相关问题
–mkdir: Unknown command Usage: hadoop fs [generic options] [-appendToFile <localsrc> ... <dst>] [-cat [-ignoreCrc] <src> ...] [-checksum <src> ...] [-chgrp [-R] GROUP PATH...] [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...] [-chown [-R] [OWNER][:[GROUP]] PATH...] [-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>] [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>] [-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...] [-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>] [-createSnapshot <snapshotDir> [<snapshotName>]] [-deleteSnapshot <snapshotDir> <snapshotName>] [-df [-h] [<path> ...]] [-du [-s] [-h] [-x] <path> ...] [-expunge] [-find <path> ... <expression> ...] [-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>] [-getfacl [-R] <path>] [-getfattr [-R] {-n name | -d} [-e en] <path>] [-getmerge [-nl] [-skip-empty-file] <src> <localdst>] [-help [cmd ...]] [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]] [-mkdir [-p] <path> ...] [-moveFromLocal <localsrc> ... <dst>] [-moveToLocal <src> <localdst>] [-mv <src> ... <dst>] [-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>] [-renameSnapshot <snapshotDir> <oldName> <newName>] [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...] [-rmdir [--ignore-fail-on-non-empty] <dir> ...] [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]] [-setfattr {-n name [-v value] | -x name} <path>] [-setrep [-R] [-w] <rep> <path> ...] [-stat [format] <path> ...] [-tail [-f] <file>] [-test -[defsz] <path>] [-text [-ignoreCrc] <src> ...] [-touchz <path> ...] [-truncate [-w] <length> <path> ...] [-usage [cmd ...]] Generic options supported are: -conf <configuration file> specify an application configuration file -D <property=value> define a value for a given property -fs <file:///|hdfs://namenode:port> specify default filesystem URL to use, overrides 'fs.defaultFS' property from configurations. -jt <local|resourcemanager:port> specify a ResourceManager -files <file1,...> specify a comma-separated list of files to be copied to the map reduce cluster -libjars <jar1,...> specify a comma-separated list of jar files to be included in the classpath -archives <archive1,...> specify a comma-separated list of archives to be unarchived on the compute machines The general command line syntax is: command [genericOptions] [commandOptions]
这个错误提示表明你使用了不正确的命令格式。根据错误提示信息,你使用了以下命令:
```bash
–mkdir
```
这个命令格式不正确,应该使用以下命令格式:
```bash
hadoop fs -mkdir <path>
```
其中 `<path>` 是你想要创建的目录路径。请注意,命令中的连字符应该是英文状态下的减号,而不是中文状态下的破折号。
此外,你还可以使用 `mkdir` 命令来创建目录,例如:
```bash
hadoop fs mkdir <path>
```
希望这些信息能够帮助你解决问题。如果你有其他问题,请随时提问。
hadoop fs -put -put: Not enough arguments: expected 1 but got 0 Usage: hadoop fs [generic options] -put [-f] [-p] [-l] <localsrc> ... <dst>
`hadoop fs -put` 是Hadoop分布式文件系统 (HDFS) 提供的一个命令行工具,用于将本地文件或目录复制到远程HDFS上。当你看到 "Not enough arguments: expected 1 but got 0" 这样的错误信息,说明你在使用这个命令时缺少了必要的参数。
这个命令的基本语法应该是这样的:
```bash
hadoop fs -put local_file_or_directory [remote_path]
```
参数解释:
- `local_file_or_directory`: 你要上传到HDFS的本地文件或目录路径。
- `remote_path`: 目标在HDFS上的路径,如果不提供,默认会放在当前用户的根目录下。
选项说明:
- `-f` 或 `--force`: 如果目标路径已经存在,强制覆盖。
- `-p` 或 `--policy` 或 `--blocksize`: 设置块大小(默认由配置文件决定)。
- `-l` 或 `--permission` 或 `--setperm`: 设置目标文件或目录的权限。
如果你需要使用该命令,你需要提供至少一个本地源文件或目录作为参数,并指定它们将在HDFS中的位置。例如:
```bash
hadoop fs -put /path/to/local/file hdfs://namenode/path/in/hdfs
```
阅读全文