请查看上一篇博客有详细教程
输入dir将你可以查看到根目录下所有的文件
bin:存放的是我们用来实现管理脚本和使用的脚本的目录,我们对hadoop文件系统操作的时候用的就是这个目录下的脚本
etc:存放我们的核心的配置文件
sbin : 存放的是我们管理脚本的所在目录,重要是对hdfs和yarn的各种开启和关闭和单线程开启和守护
lib:该目录下存放的是Hadoop运行时依赖的jar包,Hadoop在执行时会把lib目录下面的jar全部加到classpath中。
libexec:对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头文件均是用C++定义的,通常用于C++程序访问HDFS 或者编写MapReduce程序
share:Hadoop各个模块编译后的jar包所在的目录
include:对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头文件均是用C++定义的,通常用于C++程序访问HDFS或者编写MapReduce程序
bin/hadoop jar:执行一个jar文件
share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar :文件所在的目录 examples因为加s了肯定是多个案例
grep :因为examples是多个案例我们这里执行的是grep 案例
input:输入文件夹
output:输出文件夹
注意:这里的output文件夹不能存在,如果存在将会报错,在执行命令时会自动创建output文件夹
‘dfs[a-z.]+’:正则表达式 以dfs开头后面跟a-z任意字母 点的意思过滤\r\n 加号表示a-z任意多个
-SUCCESS:是个空文件代表你已经成功
箭头所指代表一共有一个dfs开头后面是a-z 这里是和正则对应的