1.ls
[root@hb ~]# hadoop fs -ls /查询根目录下的文件;
[root@hb ~]# hadoop fs -ls -R /递归查看根,目录下所有的文件和目录 2.mkdir
[root@hb ~]# hadoop fs -mkdir /testa在根目录上创建一个test文件夹 查看:hadoop fs -l / 就可以看到下面文件:一个上传的test.txt文件和一个test的文件夹
[root@hb ~]# hadoop fs -mkdir -p /testa/a/b递归创建文件夹,即一次在testa下创建a文件夹,又在a文件夹下创建b文件夹 3.put
[root@hb ~]# hadoop fs -put /etc/hosts /testa将etc目录下的hosts文件上传到根目录 4.get 将hdfs的文件拿到本地
[root@hb ~]# hadoop fs -get /testa/hosts5.rm
[root@hb ~]# hadoop fs -rm /testa/hosts删除文件 hadoop fs -rm /testa/hosts
[root@hb ~]# hadoop fs -rm -R /testa删除文件夹 6:text
[root@hb ~]# hadoop fs -text /testa/a.txt查看指定文件的内容 7.copyFormLocal
hadoop fs -copyFromLocal /usr/local/a.txt /testa/h.txt将本地的文件拷贝到dfs的指定目录