前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hadoop伪分布式集群搭建

Hadoop伪分布式集群搭建

作者头像
CoderJed
发布2018-09-13 10:56:02
9970
发布2018-09-13 10:56:02
举报

软件准备


1. 把hadoop安装包上传到服务器并解压

[root@repo ~]# tar zxvf hadoop-2.6.5.tar.gz -C /opt/apps/

2. 配置环境变量

# + 可以直接定位到文件的最后一行
[root@repo hadoop-2.6.5]# vi + /etc/profile

export HADOOP_HOME=/opt/apps/hadoop-2.6.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

[root@repo hadoop-2.6.5]# . /etc/profile

3. 修改 hadoop-env.sh、mapred-env.sh、yarn-env.sh 这三个配置文件,添加JAVA_HOME

[root@repo hadoop]# pwd
/opt/apps/hadoop-2.6.5/etc/hadoop

[root@repo hadoop]# vi hadoop-env.sh

export JAVA_HOME=/usr/local/jdk1.8.0_73

[root@repo hadoop]# vi mapred-env.sh

export JAVA_HOME=/usr/local/jdk1.8.0_73

[root@repo hadoop]# vi yarn-env.sh

export JAVA_HOME=/usr/local/jdk1.8.0_73

4. 修改 core-site.xml 和 hdfs-site.xml 配置文件,配置伪分布式相关的内容

[root@repo hadoop]# vi core-site.xml

<configuration>
    
    <!--设置namenode所在节点-->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://repo:9000</value>
    </property>
    
    <!--
        设置hadoop存放数据的目录
        Hadoop默认把数据块的元数据和数据存放在操作系统的/tmp目录下
        但操作系统的/tmp目录会不定时清空,所以要做修改
    -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/hadoop/pseudo</value>
    </property>
</configuration>

[root@repo hadoop]# vi hdfs-site.xml

<configuration>
    
    <!--设置block副本数,不能超过节点数-->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    
    <!—设置secondaryNode在哪个节点-->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>repo:50090</value>
    </property>
</configuration>

5. 修改 slaves 配置文件,指定DataNode所在的节点

[root@repo hadoop]# vi slaves

repo

6. 格式化文件系统

[root@repo hadoop]# hadoop namenode --format

# 成功信息
17/09/16 21:17:11 INFO common.Storage: Storage directory /var/hadoop/pseudo/dfs/name has been successfully formatted.

7. 启动hdfs和yarn

[root@repo hadoop]# start-dfs.sh

Starting namenodes on [repo]
repo: starting namenode, logging to /opt/apps/hadoop-2.6.5/logs/hadoop-root-namenode-repo.out
repo: starting datanode, logging to /opt/apps/hadoop-2.6.5/logs/hadoop-root-datanode-repo.out
Starting secondary namenodes [repo]
repo: starting secondarynamenode, logging to /opt/apps/hadoop-2.6.5/logs/hadoop-root-secondarynamenode-repo.out

[root@repo hadoop]# start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /opt/hadoop-2.7.4/logs/yarn-root-resourcemanager-repo.out
repo: starting nodemanager, logging to /opt/hadoop-2.7.4/logs/yarn-root-nodemanager-repo.out

[root@repo hadoop]# jps
4368 Jps
3957 ResourceManager
3512 NameNode
3641 DataNode
4058 NodeManager
3805 SecondaryNameNode

8. 访问WEB页面

搭建成功!

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017.12.21 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 把hadoop安装包上传到服务器并解压
  • 2. 配置环境变量
  • 3. 修改 hadoop-env.sh、mapred-env.sh、yarn-env.sh 这三个配置文件,添加JAVA_HOME
  • 4. 修改 core-site.xml 和 hdfs-site.xml 配置文件,配置伪分布式相关的内容
  • 5. 修改 slaves 配置文件,指定DataNode所在的节点
  • 6. 格式化文件系统
  • 7. 启动hdfs和yarn
  • 8. 访问WEB页面
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档