专栏首页ByteByehadoop-2.8.3 配置安装

hadoop-2.8.3 配置安装

centoshadoopinstall

hadoop-2.8.3

1. 环境

  • 1. 资源分配 hostnameipenvtype node192.168.100.199jdk zk HaoopResourceManager QuorumPeerMain NameNode SecondaryNameNode node1192.168.100.101jdk zk HaoopQuorumPeerMain DataNode NodeManager node2192.168.100.102jdk zk HaoopQuorumPeerMain DataNode NodeManager node3192.168.100.103jdk zk HaoopQuorumPeerMain DataNode NodeManager
  • 2. 通过ntp服务,使各节点时间同步

2. 配置文件

  • 1. core-site.xml
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131072</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/opt/data/hadoop_data/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
  • 2. hdfs-site.xml
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/opt/data/hadoop_data/namenode</value>
    </property>
    <property>
        <name>dfs.blocksize</name>
        <value>268435456</value>
    </property>
    <!-- 设置namenode的rpc通讯地址 -->
    <property>
        <name>dfs.namenode.rpc-address</name>
        <value>node:8020</value>
    </property>
    <!-- 设置namenode的http通讯地址 -->
    <property>
        <name>dfs.namenode.http-address</name>
        <value>node:50070</value>
    </property>
    <!-- 设置namenode存放的路径 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/data/hadoop_data/dfs/data</value>
    </property>
    <!-- 设置hdfs副本数量 -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
    </property>
    <!-- 设置datanode存放的路径 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/data/hadoop_data/datanode</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>
  • 3. yarn-site.xml
    <!-- 设置 resourcemanager 在哪个节点-->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>node</value>
    </property>
    <!-- reducer取数据的方式是mapreduce_shuffle -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>true</value>
    </property>
  • 4. mapred-site.xml
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>node:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>node:19888</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.resource.mb</name>
        <value>768</value>
    </property>
  • 5. masters
node
  • 6. slaves
node1
node2
node3
  • 7. zoo.cfg ( zookeeper )
tickTime=2000
initLimit=10
syncLimit=5
 #该路径下还需个节点分别创建myid文件,并设置和下面对应的id
dataDir=/opt/data/zookeeper_data/data
dataLogDir=/opt/data/zookeeper_data/log
clientPort=2181
server.1=node:2888:3888
server.2=node1:2888:3888
server.3=node2:2888:3888
server.4=node4:2888:3888

3. 启动顺序

  1. 首次启动 hadoop namenode -format
  2. zk zkServer.sh start zkServer.sh status zkServer.sh stop
  3. hdfs start-dfs.sh stop-dfs.sh
  4. yarn start-yarn.sh stop-yarn.sh
  5. 第3和4步骤可用 start-all.sh , stop-all.sh 代替
  • webUI
    • node:50070
    • node:8088

本文由 bytebye 创作 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • Hadoop+Hive+HBase+Spark 集群部署(二)

    本文由 bytebye 创作 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名

    ByteBye
  • centos7 ssh免密登录(shell脚本)

    本文由 bytebye 创作 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名

    ByteBye
  • Hadoop+Hive+HBase+Spark 集群部署(四)

    本文由 bytebye 创作 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名

    ByteBye
  • Apache Hadoop-2.x集群部署(持续更新完善)

    天策
  • Spring - 通过SpEL为bean赋值(4)

    <property name = "prefix" value="#{prefixGenerator}"/>

    桑鱼
  • Hadoop完全分布式安装

    完全分布式安装部署,其实步骤上来说与伪分布式没有太大的区别,主要增加2台虚拟机部署称为一个3台的集群

    我脱下短袖
  • Java程序员的日常——SpringMVC+Mybatis开发流程、推荐系统

    今天大部分时间都在写业务代码,然后算是从无到有的配置了下spring与mybatis的集成。 SpringMVC+Mybatis Web开发流程 配置数据...

    用户1154259
  • mysql : utf8mb4 的问题

    微信呢称和QQ呢称上有很多火星文和emoji表情图片,这些数据,如果直接insert到mysql数据库,一般会报错,设置成utf8都不好使,必须改成utf8mb...

    菩提树下的杨过
  • Hadoop-HA高可用搭建

    2、hosts文件要配置好,三台都可以相互通过主机名ping通,三台虚拟机都要配置!如下:

    可爱见见
  • 基于druid和spring的动态数据库以及读写分离

    spring与druid可以实现动态数据源,夸库查询,读写分离等功能。现在说一下配置:

    一笠风雨任生平

扫码关注云+社区

领取腾讯云代金券