前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >hadoop-hdfs安装部署

hadoop-hdfs安装部署

作者头像
云缓缓知我意
发布2021-04-15 15:04:19
1.3K0
发布2021-04-15 15:04:19
举报
文章被收录于专栏:kafka。

1、上传解压

上传到指定目录输入命令rz (如果没有这个命令 需要安装lrzsz插件 命令 yum -y install lrzsz)

在这里插入图片描述
在这里插入图片描述

解压到指定文件夹 tar -z/jxvf 压缩包文件 -C 解压的目录

2、配置hadoop的环境变量

vim /etc/profile.d/hadoop.sh

export HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0 export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin 配置完成之后生效 source /etc/profile

注 : hadoop中所有的配置文件都需要全局同步

3、检查支持哪些库或包

进入hadoop安装目录的bin里面执行以下命令 ./hadoop checknative

在这里插入图片描述
在这里插入图片描述

如果出现openssl为false,那么所有机器在线安装openssl即可,执行以下命令,虚拟机联网之后就可以在线进行安装了 yum -y install openssl-devel

4、修改hadoop的核心配置文件(直接粘贴 将主机名修改成自己的)

第一个配置文件 :vim core-site.xml

代码语言:javascript
复制
	fs.defaultFS
	hdfs://node01:8020


	hadoop.tmp.dir
	/export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/tempDatas



	io.file.buffer.size
	4096




	fs.trash.interval
	10080

第二个配置文件: vim hdfs-site.xml

代码语言:javascript
复制
		dfs.namenode.secondary.http-address
		node01:50090



	dfs.namenode.http-address
	node01:50070


	dfs.namenode.name.dir
	file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas



	dfs.datanode.data.dir
	file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas



	dfs.namenode.edits.dir
	file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/edits


	dfs.namenode.checkpoint.dir
	file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/snn/name


	dfs.namenode.checkpoint.edits.dir
	file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/snn/edits


	dfs.replication
	2


	dfs.permissions
	false

             
	dfs.blocksize
	134217728

第三个配置文件 :vim Hadoop-env.sh

代码语言:javascript
复制
       export JAVA_HOME=/export/servers/jdk1.8.0_141  等同于 export JAVA_HOME=${JAVA_HOME}
       可以不修改

第四个配置文件 :vim mapred-site.xml

代码语言:javascript
复制
	mapreduce.framework.name
	yarn



	mapreduce.job.ubertask.enable
	true



	mapreduce.jobhistory.address
	node01:10020



	mapreduce.jobhistory.webapp.address
	node01:19888

第五个配置文件 :vim yarn-site.xml

代码语言:javascript
复制
	yarn.resourcemanager.hostname
	node01


	yarn.nodemanager.aux-services
	mapreduce_shuffle

5、设置集群有哪些工作节点

编辑slave文件 vim slave node01 node02 node03

6丶创建文件存放目录

mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/tempDatas mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/edits mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/snn/name mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/snn/edits

7、其他节点分发

代码语言:javascript
复制
scp -r hadoop-2.6.0-cdh5.14.0 node02:$PWD
scp -r hadoop-2.6.0-cdh5.14.0 node03:$PWD

8、配置其他节点的hadoop的环境变量

代码语言:javascript
复制
  scp /etc/profile.d/hadoop.sh node02:/etc/profile.d/
  scp /etc/profile.d/hadoop.sh node03:/etc/profile.d/

9 、格式化集群

代码语言:javascript
复制
   在集群安装目录的bin内部
  执行一下命令进行格式化 hdfs namenode -format

10、集群启动

代码语言:javascript
复制
     在集群安装目录的sbin内部执行一下命令进行启动
      ./start-all.sh
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019/11/05 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1、上传解压
  • 2、配置hadoop的环境变量
  • 3、检查支持哪些库或包
  • 4、修改hadoop的核心配置文件(直接粘贴 将主机名修改成自己的)
  • 5、设置集群有哪些工作节点
  • 6丶创建文件存放目录
  • 7、其他节点分发
  • 8、配置其他节点的hadoop的环境变量
  • 9 、格式化集群
  • 10、集群启动
相关产品与服务
专用宿主机
专用宿主机(CVM Dedicated Host,CDH)提供用户独享的物理服务器资源,满足您资源独享、资源物理隔离、安全、合规需求。专用宿主机搭载了腾讯云虚拟化系统,购买之后,您可在其上灵活创建、管理多个自定义规格的云服务器实例,自主规划物理资源的使用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档