## 通过 <hdfs dfs> 或 <hadoop fs> 来使用
hadoop fs
hadoop fs -help <command>
hadoop fs -usage <command>
命令不用刻意记忆或记录用法,不同HDFS版本,命令使用方式应该也会存在差异。
更一般的思路应该是先查看支持的命令,然后查看这个命令的用法。
### appendToFile
-appendToFile <localsrc> ... <dst>
### copyFromLocal
-copyFromLocal [-f] [-p] [-l] [-d] [-t <thread count>] <localsrc> ... <dst>
### copyToLocal
-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>
### moveFromLocal
-moveFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>
### cat
-cat [-ignoreCrc] <src> ...
### checksum
-checksum <src> ...
### chown
-chown [-R] [OWNER][:[GROUP]] PATH...
### count
-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] [-e] <path> ...
### cp
-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>
### find
-find <path> ... <expression> ...
示例 1: hadoop fs -find / -name "READ*" -a -name "*txt"
### rm
-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...
### get
-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>
### ls
-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [-e] [<path> ...]
### mkdir
-mkdir [-p] <path> ...
### mv
-mv <src> ... <dst>
### put
-put [-f] [-p] [-l] [-d] [-t <thread count>] <localsrc> ... <dst>
### rmdir
-rmdir [--ignore-fail-on-non-empty] <dir> ...
### head
-head <file>
### tail
-tail [-f] [-s <sleep interval>] <file>
### text
-text [-ignoreCrc] <src> ...
### test
-test -[defswrz] <path>
### getmerge
-getmerge [-nl] [-skip-empty-file] <src> <localdst>
### touch
-touch [-a] [-m] [-t TIMESTAMP ] [-c] <path> ...
### touchz
-touchz <path> ...
### stat
-stat [format] <path> ...
说明: 可以用这个命令来看文件类型
示例 1: hadoop fs -stat "%F" /README.txt
### truncate
-truncate [-w] <length> <path> ...
说明: 把文件截断为指定大小
### df
-df [-h] [<path> ...]
说明: 查看文件系统的信息
### du
-du [-s] [-h] [-v] [-x] <path> ...
说明: 查看指定path的使用情况,包括size、disk space consumed、name信息
### setrep
-setrep [-R] [-w] <rep> <path> ...
说明: 设置文件的副本个数,对目录下的所有目录+文件递归执行。The EC files will be ignored here.
示例 1: hadoop fs -setrep -R 3 <path>
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。