摘 要
体验一下Hadoop2.x版本在单机环境下是如何安装配置。
上传完毕后,为了方便操作,在系统根目录下创建/itunic目录,代码如下:
将hadoop解压到itunic目录下
注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
伪分布式需要修改5个配置文件
打开文件
配置jdk所在的位置
<!--指定fs的默认名称-->
<property>
<name>fs.default.name</name>
<value>hdfs://itunic:9000</value>
</property>
<!-- 指定HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://itunic:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/itunic/hadoop-2.7.0/tmp</value>
</property>
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
我们发现目录下并没有mapred-site.xml,只看到了一个类似的 mapred-site.xml.template模板文件,没错,我们需要将模板文件重命名为mapred-site.xml,这样的话就可以正常的配置了。具体操作如下:
#copy文件mapred-site.xml.template 将其命名为mapred-site.xml
mv mapred-site.xml.template mapred-site.xml
#编辑mapred-site.xml
vi mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>itunic</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
vi /etc/profile
#内容如下:
JAVA_HOME=/usr/java/jdk1.7.0_79
HADOOP_HOME=/itunic/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#让配置生效:
source /etc/profile
#两种方式,选其一即可
hadoop namenode -format
hdfs namenode -format
到了这一步,hadoop伪分布式环境已经配置完成,接下来我们需要把hadoop启动起来。
#先启动HDFS
sbin/start-dfs.sh
#再启动YARN
sbin/start-yarn.sh
验证是否启动成功
#使用jps命令验证
27208 NameNode
28318 Jps
22343 SecondaryNameNode
21266 NodeManager
23303 ResourceManager
21212 DataNode
浏览器访问
http://192.168.10.1:50070 (HDFS管理界面)
http://192.168.10.1:8088 (MR管理界面)
想了解Hadoop是什么请点击Hadoop简介