首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

大数据集群服务安装-zk,hadoop,hbase

接上一篇:大数据集群安装-开发环境基础配置

按顺序安装如下组件

zookeeper

hadoop

hbase

mysql

hive

azkaban

sqoop

spark

由于开发环境,所以hadoop,hbase都不需要HA高可用

(一) zookeeper

1) 解压,编辑配置文件,分发

解压:

tar -zxvf zookeeper.tar.gz -C ~/bigdata/

编辑:

cd zookeeper/conf

cp zoo_sample.cfg zoo.cfg

vi zoo.cfg

设置如下选项:3台作为zk服务的机器主机名

dataDir=/home/bigdata/data/zookeeper/data

dataLogDir=/home/bigdata/data/zookeeper/log

server.1=hadoop2:2888:3888

server.2=hadoop3:2888:3888

server.3=hadoop4:2888:3888

(主机名, 心跳端口、数据端口)

拷贝:

scp -r zookeeper-3.4.5/ hadoop3:~/bigdata/

scp -r zookeeper-3.4.5/ hadoop4:~/bigdata/

2) 创建数据目录,log目录--在3台机器上都要创建

mkdir -p/home/bigdata/data/zookeeper/data

mkdir -p/home/bigdata/data/zookeeper/log

3) 创建文件myid

在三台机器上 cd /home/bigdata/data/zookeeper/data

vi myid (原来没有这个文件)对应在里边添加:1,2,3

注:1,2,3分别对应1)中server.1 server.2 server.3

4) 启动zk服务

zkServer.sh start

zkServer.sh status

(二) hadoop

1.在计划安装hadoop 的节点上 解压hadoop

tar -zxvf hadoop.tar.gz -C ~/bigdata/

2.修改配置文件

cd /home/bigdata/bigdata/hadoop-2.7.4/etc/hadoop

1)修改hadoop-env.sh

export JAVA_HOME=/usr/local/jdk8

2)修改core-site.xml

fs.defaultFS

hdfs://hadoop2:9000

file:/home/bigdata/data/hadoop/tmp/

3)修改hdfs-site.xml

file:/home/bigdata/data/hadoop/name/

file:/home/bigdata/data/hadoop/data/

dfs.replication

2

hadoop2:50090

4)修改mapred-site.xml

yarn

-Xmx4096m

4096

4096

-Xmx4096m

hadoop2:10020

MR JobHistory Server管理的日志的存放位置

mapreduce.jobhistory.webapp.address

hadoop2:19888

查看历史服务器已经运行完的Mapreduce作业记录的web地址,需要启动该服务才行

4)修改yarn-site.xml

hadoop2

mapreduce_shuffle

16392

2048

4.0

8

6) 修改slaves文件,添加要作为datanode的主机名

hadoop3

hadoop4

3. 分发hadoop到集群其他所有机器上

scp -r hadoop-2.7.4/ hadoop3:~/bigdata/

scp -r hadoop-2.7.4/ hadoop4:~/bigdata/

4.初始化工作目录结构

在hadoop2 上执行 hdfs namenode -format

hdfs namenode -format 只是初始化了namenode的工作目录

而datanode的工作目录是在datanode启动后自己初始化的

[bigdata@hadoop2 current]$ cat VERSION

#Fri Jun 22 18:10:00 CST 2018

namespaceID=5181496

clusterID=CID-44e594ba-1d0c-4951-bbbd-e4a75a6fb1f1

cTime=0

storageType=NAME_NODE

blockpoolID=BP-2007687155-172.16.15.31-1529662200803

layoutVersion=-63

5.启动hdfs,yarn的服务

start-dfs.sh

start-yarn.sh

mr-jobhistory-daemon.sh start historyserver 启动MR historyServer

http://hadoop2:50070/ namenode

http://hadoop2:50090/ secondaryNamenode

bin/hdfs dfsadmin -report 查看hdfs的各节点状态信息

(三)hbase

1.在计划安装hbase的节点上 解压hbase

tar -zxvf hbase.tar.gz -C ~/bigdata/

2. 修改配置文件

1)hbase-env.sh

export JAVA_HOME=/usr/local/jdk8 //jdk安装目录

export HBASE_MANAGES_ZK=false #如果使用独立安装的zookeeper这个地方就是false

2)hbase-site.xml

hbase.master#hbasemaster的主机和端口

hadoop2:60000

180000

hbase.rootdir

hdfs://hadoop2:9000/hbase #hbase共享目录,持久化hbase数据

true

hadoop2,hadoop3,hadoop4

2181

/home/bigdata/data/hbase/zookeeper

/home/bigdata/data/hbase/tmp

3)修改Regionservers文件 //Hbaseregionserver的域名

hadoop3

hadoop4

3. 把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下

cp $/etc/hadoop/hdfs-site.xml $/conf/

cp $/etc/hadoop/core-site.xml $/conf/

4. 发送到其他机器

scp -r $/ hadoop3:~/bigdata/

scp -r $/ hadoop4:~/bigdata/

5. 启动

在 HBase Master hadoop2 上运行start-hbase.sh启动Hbase集群

查看

进程:jps

hbase-daemon.sh stop regionserver停止某台Hbase regionServer

进入hbase的shell:hbase shell

退出hbase的shell:quit

页面:

http://hadoop2:16010/

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180625G0G5PU00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券