前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hadoop完全分布式集群搭建

Hadoop完全分布式集群搭建

作者头像
CoderJed
发布2018-09-13 10:55:48
8610
发布2018-09-13 10:55:48
举报
文章被收录于专栏:Jed的技术阶梯Jed的技术阶梯

环境准备


1. 集群规划

2. 安装步骤

(1) 把hadoop安装包上传到服务器并解压

代码语言:javascript
复制
tar zxvf hadoop-2.6.5.tar.gz -C /home/hadoop/apps/

(2) 修改 hadoop-env.sh、mapred-env.sh、yarn-env.sh 这三个配置文件,添加JAVA_HOME

hadoop的配置文件在HADOOP_HOME/etc/hadoop/下

代码语言:javascript
复制
export JAVA_HOME=/usr/local/jdk1.8.0_73

(3) 修改 core-site.xml

代码语言:javascript
复制
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node01:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadoopdata</value>
    </property>
</configuration>

(4) 修改 hdfs-site.xml

代码语言:javascript
复制
<configuration>
    <!--
        这两个配置用于指定namenode和datanode存放数据的位置
        如果不指定,数据会存放到core-site.xml中配hadoop.tmp.dir目录下
    -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/home/hadoop/hadoopdata/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/home/hadoop/hadoopdata/data</value>
    </property>
    <!--配置数据副本数,不要超过datanode节点数-->
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <!--指定secondarynamenode所在节点-->
    <property>
        <name>dfs.secondary.http.address</name>
        <value>node02:50090</value>
    </property>
</configuration>

(5) 修改 mapred-site.xml

集群中只有mapred-site.xml.template,可以从这个文件进行复制

代码语言:javascript
复制
cp mapred-site.xml.template mapred-site.xml
代码语言:javascript
复制
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

(6) 修改 yarn-site.xml

代码语言:javascript
复制
<configuration>
<property>
 <name>yarn.resourcemanager.hostname</name>
 <value>node03</value>
</property>
<property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
</property>
</configuration>

(7) 修改 slaves 配置文件,指定DataNode所在的节点

代码语言:javascript
复制
node02
node03
node04

(8) 把hadoop安装包分发给其他节点

代码语言:javascript
复制
[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node02:/home/hadoop/apps/
[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node03:/home/hadoop/apps/
[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node04:/home/hadoop/apps/

(9) 给每个节点配置HADOOP_HOME环境变量

代码语言:javascript
复制
vim ~/.bash_profile

export HADOOP_HOME=/home/hadoop/apps/hadoop-2.6.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

(10) 在namenode主节点(node01)上格式化文件系统

代码语言:javascript
复制
[hadoop@node01 ~]# hdfs namenode -format

看到以下信息说明格式化成功:

(11) 在namenode主节点(node01)上启动hdfs系统

代码语言:javascript
复制
[hadoop@node01 ~]# start-dfs.sh

(12) 在resourcemanager所在节点(node03)上启动yarn

代码语言:javascript
复制
[hadoop@node03 ~]# start -yarn.sh

3. 验证集群是否搭建成功

(1) 查看进程是否全部启动

代码语言:javascript
复制
[hadoop@node01 ~]# jps
4000 NameNode
4281 Jps

[hadoop@node02 ~]# jps
3442 SecondaryNameNode
3289 DataNode
3375 NodeManager
3647 Jps

[hadoop@node03 ~]# jps
2945 DataNode
3019 ResourceManager
3118 NodeManager
3919 Jps

[hadoop@node04 ~]# jps
2899 DataNode
2984 NodeManager
3149 Jps

(2) 访问WEB页面

(3) 执行hdfs命令或运行一个mapreduce程序测试

代码语言:javascript
复制
# 上传一个文件
[hadoop@node01 ~]# hdfs dfs -put ./install.log /
# 执行一个mapreduce例子程序
[hadoop@node01 mapreduce]# pwd
/home/hadoop/apps/hadoop-2.6.5/share/hadoop/mapreduce
[root@node02 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.6.5.jar pi 5 5

文件上传成功:

任务成功运行:

到这里,hadoop完全分布式集群就已经搭建成功了!

4. 如果hadoop集群需要重装,按以下步骤进行

(1) 删除每个机器中的hadoop日志

日志默认在HADOOP_HOME/logs下,如果不删除,日志文件会越积累越多,占用磁盘

(2) 删除原来的namenode和datanode产生的数据和文件

删除你配置的hadoop.tmp.dir这个目录,如果你配置了dfs.datanode.data.dirdfs.datanode.name.dir这两个配置,那么把这两个配置对应的目录也删除

(3) 再重新修改hadoop配置文件后,按照安装时的步骤进行即可

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017.12.22 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 集群规划
  • 2. 安装步骤
    • (1) 把hadoop安装包上传到服务器并解压
      • (2) 修改 hadoop-env.sh、mapred-env.sh、yarn-env.sh 这三个配置文件,添加JAVA_HOME
        • (3) 修改 core-site.xml
          • (4) 修改 hdfs-site.xml
            • (5) 修改 mapred-site.xml
              • (6) 修改 yarn-site.xml
                • (7) 修改 slaves 配置文件,指定DataNode所在的节点
                  • (8) 把hadoop安装包分发给其他节点
                    • (9) 给每个节点配置HADOOP_HOME环境变量
                      • (10) 在namenode主节点(node01)上格式化文件系统
                        • (11) 在namenode主节点(node01)上启动hdfs系统
                          • (12) 在resourcemanager所在节点(node03)上启动yarn
                          • 3. 验证集群是否搭建成功
                            • (1) 查看进程是否全部启动
                              • (2) 访问WEB页面
                                • (3) 执行hdfs命令或运行一个mapreduce程序测试
                                • 4. 如果hadoop集群需要重装,按以下步骤进行
                                  • (1) 删除每个机器中的hadoop日志
                                    • (2) 删除原来的namenode和datanode产生的数据和文件
                                      • (3) 再重新修改hadoop配置文件后,按照安装时的步骤进行即可
                                      领券
                                      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档