Hadoop 2.x 伪分布式环境搭建

摘 要

体验一下Hadoop2.x版本在单机环境下是如何安装配置。

系统环境

  • 操作系统:centos 6.5 x64
  • hadoop版本:2.7.0
  • jdk 1.7

上传hadoop安装包

上传完毕后,为了方便操作,在系统根目录下创建/itunic目录,代码如下:

  1. mkdir /itunic

将hadoop解压到itunic目录下

  1. tar  -zxvf  hadoop.2.7.0.tar.gz -C /itunic

配置hadoop

注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop

伪分布式需要修改5个配置文件

1、hadoop-env.sh

打开文件

  1. vi hadoop-env.sh

配置jdk所在的位置

  1. #第27行
  2. export JAVA_HOME=/usr/java/jdk1.7.0_79
2、core-site.xml
<!--指定fs的默认名称-->
 <property>
 <name>fs.default.name</name>
 <value>hdfs://itunic:9000</value>
 </property>
 <!-- 指定HDFS的老大(NameNode)的地址 -->
 <property>
 <name>fs.defaultFS</name>
 <value>hdfs://itunic:9000</value>
 </property>
 <!-- 指定hadoop运行时产生文件的存储目录 -->
 <property>
 <name>hadoop.tmp.dir</name>
 <value>/itunic/hadoop-2.7.0/tmp</value>
 </property>
3、hdfs-site.xml
<!-- 指定HDFS副本的数量 -->
 <property>
 <name>dfs.replication</name>
 <value>1</value>
 </property>
4、mapred-site.xml

我们发现目录下并没有mapred-site.xml,只看到了一个类似的 mapred-site.xml.template模板文件,没错,我们需要将模板文件重命名为mapred-site.xml,这样的话就可以正常的配置了。具体操作如下:

#copy文件mapred-site.xml.template 将其命名为mapred-site.xml
mv mapred-site.xml.template mapred-site.xml
#编辑mapred-site.xml
vi mapred-site.xml
<!-- 指定mr运行在yarn上 -->
 <property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
 </property>
5、 yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 -->
 <property>
 <name>yarn.resourcemanager.hostname</name>
 <value>itunic</value>
 </property>
 <!-- reducer获取数据的方式 -->
 <property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
 </property>

将Hadoop配置到系统的环境变量中

vi /etc/profile
#内容如下:
JAVA_HOME=/usr/java/jdk1.7.0_79
HADOOP_HOME=/itunic/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

#让配置生效:
source /etc/profile

格式化namenode

#两种方式,选其一即可
hadoop namenode -format
hdfs namenode -format

启动及验证

到了这一步,hadoop伪分布式环境已经配置完成,接下来我们需要把hadoop启动起来。

#先启动HDFS
sbin/start-dfs.sh
#再启动YARN
sbin/start-yarn.sh

验证是否启动成功

#使用jps命令验证
27208 NameNode
28318 Jps
22343 SecondaryNameNode
21266 NodeManager
23303 ResourceManager
21212 DataNode

浏览器访问

http://192.168.10.1:50070 (HDFS管理界面)

http://192.168.10.1:8088 (MR管理界面)

相关

想了解Hadoop是什么请点击Hadoop简介

Hadoop下载

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏北京马哥教育

CentOS 6.5上搭建Hadoop环境详解

本文详细记录在开发服务器CentOS 6.5上搭建Hadoop的详细过程。 ssh连接免密码配置 由于配置过程中需要频繁的进行ssh连接到开发服务器执行命令以及...

3285
来自专栏伦少的博客

Spark架构原理

2455
来自专栏Hadoop实操

如何在CDSW上调试失败或卡住的Spark应用

默认情况下,CDSW会话中的Spark应用程序只显示ERROR级别的日志,当作业出现异常或卡住时无法查看作业运行详细日志及异常堆栈信息,不能根据日志的上下文正确...

1313
来自专栏Hadoop实操

如何迁移CDH的opt目录

部分企业对OS的目录空间划分有严格的要求(如:/、/opt、/var等目录),CDH安装的安装目录默认是在/opt下,随着版本的升级和新组件的安装占用了大量的/...

1334
来自专栏大数据

在Ubuntu上启动并运行Hadoop

Hadoop是一个用Java编写的框架,它允许在大型商品硬件集群上以分布式方式处理大型数据集。

2061
来自专栏Hadoop实操

如何启用Impala的动态资源池

在Cloudera Manager中动态资源池分为Yarn的动态资源池和Impala的动态资源池两种。Fayson在前面有多篇文章介绍了Yarn动态资源池的使用...

3754
来自专栏L宝宝聊IT

案例:HDFS分布式文件系统

1915
来自专栏蓝天

使用process_monitor.sh监控hadoop进程的crontab配置

可以从下列链接找到process_monitor.sh: https://github.com/eyjian/mooon/blob/master/commo...

1002
来自专栏岑玉海

Spark硬件配置推荐

1、存储系统   如果可以的话,把Spark的hadoop的节点安装在一起,最容易的方式是用standalone的模式安装,用mapred.child.java...

3497
来自专栏Hadoop实操

如何在Cloudera Manager中配置Yarn放置规则

Hadoop集群管理员希望能对集群Yarn作业的资源进行控制。根据不同的业务组或不同的用户,对Yarn的资源池进行划分,达到资源管控、任务管控的效果。通过CM可...

3801

扫码关注云+社区