前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >【Hadoop 分布式部署 三:基于Hadoop 2.x 伪分布式部署进行修改配置文件】

【Hadoop 分布式部署 三:基于Hadoop 2.x 伪分布式部署进行修改配置文件】

作者头像
梅花
发布于 2020-09-29 17:33:59
发布于 2020-09-29 17:33:59
52900
代码可运行
举报
运行总次数:0
代码可运行

1.规划好哪些服务运行在那个服务器

需要配置的配置文件

2. 修改配置文件,设置服务运行机器节点

首先在 hadoop-senior 的这台主机上 进行 解压 hadoop2.5 按照伪分布式的配置文件来进行配置

使用命令 :tar -zxvf hadoop-2.5.0.tar.gz -C /opt/app/ (解压 hadoop 2.5)

   然后进入 cd /opt/app/hadoop-2.5.0/etc

   将里面一开始的配置文件重命令 mv hadoop backup-hadoop

然后将一开始伪分布式中的配置文件复制过来 使用命令 cp -r /opt/moudles/hadoop-2.5.0/etc/hadoop ./

(如果在Windows下 想使用方便,可以在C:\Windows\System32\drivers\etc目录下 修改hosts文件 配置 虚拟机的主机IP)

开始配置

使用notepad 进行配置hadoop 的配置文件

hadoop.env export JAVA_HOME=/opt/modules/jdk1.7.0_67 (默认已经配置好了,不用更改)

core-site.xml 文件中的内容配置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<configuration>

	<!--这个配置的是 默认读取文件的位置,是从本地 还是从hdfs系统上 -->
	<!--指定 namenode 所在的机器-->
	<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop-senior.zuoyan.com:8020</value>
    </property>
	
	
	<!-- 配置数据 存放目录 -->
	<property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/app/hadoop-2.5.0/data/tmp</value>
    </property>
	
	<!--配置垃圾箱中文件保存的时间-->
	<property>
        <name>fs.trash.interval</name>
        <value>604800</value>
    </property>
	
</configuration>

  因为没有数据存放的目录 所以需要配置一下 hadoop.tmp.dir 的目录

   命令 : mkdir -p /opt/app/hadoop-2.5.0/data/tmp

配置hdfs

  首先配置hdfs-site.xml 文件

      因为是分布式 所以不需要配置副本数 去掉 dfs.replication

      配置SecondaryNameNode 所在的节点 dfs.namenode.secondary.http-address hadoop-senior03.zuoyan.com

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<configuration>

    
    <!--配置secondary namenode 所在的主机-->
    <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>hadoop-senior03.zuoyan.com:50090</value>
        </property>
    
    
    

</configuration>

配置slaves 也就是配制 DataNode NodeManager

配置的内容为

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
hadoop-senior.zuoyan.com
hadoop-senior02.zuoyan.com
hadoop-senior03.zuoyan.com

配置yarn

      首先配置 yarn.env 配置yarn的环境变量 (我这里已经配置好了,就不用更改了)

      配置yarn-site.xml 这个文件

      这个配置文件只需要 将 resourcesmanager 所在的主机节点更改成第二台主机就可以了

      剩下的配置文件不用修改,配置文件内容如下

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<configuration>


    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
	
	
	<!--配置resourcemanager 所在的主机名 -->
	<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop-senior02.zuoyan.com</value>
    </property>
	
	<!--启用历史服务器的日志聚集功能-->
	<property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
	
	<!--设置日志在文件系统上的存放时间-->
	<property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>640800</value>
    </property>
	
	<!--配置NodeManager Resource-->

	<property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>4096</value>
    </property>
	
	<property>
        <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>4</value>
    </property>
	
	

</configuration>

配置 mapred-site.xml

    配置 JobHistoryServer 的配置文件   资源设计的时候 就把他放在了第一台主机上,所以 保持默认配置文件即可,修改一下主机名就行

    配置文件的内容如下

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<configuration>


	<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
	
	
	<!--配置历史记录服务器所在地址-->
	<property>
	  <name>mapreduce.jobhistory.address</name>
	  <value>hadoop-senior.zuoyan.com:10020</value>
	
	</property>

	<property>
	  <name>mapreduce.jobhistory.webapp.address</name>
	  <value>hadoop-senior.zuoyan.com:19888</value>
	</property>

</configuration>

到此,配置文件就配置完成了!下一步就是分发到各个机器上去

(还有一个小点就是 删除 在 /opt/app/hadoop-2.5.0/share 下的 doc文件夹,这个文件是文档,我们一般,不用,而且还占用磁盘空间 大概占用的磁盘空间是1.5G )

好了,这篇随笔就到这里了,下一篇继续!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-09-29 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【Hadoop 分布式部署 十:配置HDFS 的HA、启动HA中的各个守护进程】
官方参考 配置 地址 :http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithQJM.html
梅花
2020/09/28
1.1K0
完全分布式的搭建
伪分布式,也就是像我们之前做的那样,把NameNode,DataNode,NodeManager,ResourceManager,SecondaryNameNode部署在同一个机器上,没有所谓的在多台机器上进行真正的分布式计算,故称为"伪分布式"。
可爱见见
2019/09/09
5490
完全分布式的搭建
Hadoop完全分布式安装
完全分布式安装部署,其实步骤上来说与伪分布式没有太大的区别,主要增加2台虚拟机部署称为一个3台的集群
我脱下短袖
2019/12/21
4710
Hadoop 配置文件详解
mapred-site.xml:yarn 的 web 地址 和 history 的 web 地址以及指定我们的 mapreduce 运行在 yarn 集群上
Lokinli
2023/03/09
4900
在单台云主机搭伪分布式hadoop环境
Hadoop是大数据的基础框架模型,处理大数据,不应只谈偏向业务环境的大数据(如超市买婴儿尿不湿同时还应该推荐啤酒的经典案例),作为解决方案经理,技术是不能缺少的,否则存在忽游的嫌疑。:) 做解决方案经理,技术+业务,个人理解,技术应占到60%,业务占到40%,说到业务其实客户比我们更懂,因此技术非常重要。前面我们讲到过大数据的环境搭建,今天我们用单台云主机(或自建vmware虚机)进行Hadoop所有组件的实际应用,再次加深大数据的技术底蕴。
希望的田野
2019/09/24
1.1K0
在单台云主机搭伪分布式hadoop环境
【Hadoop 分布式部署 五:分布式部署之分发、基本测试及监控】
    到 /opt/app/hadoop-2.5.0 目录下  执行命令: bin/hdfs namenode -format
梅花
2020/09/28
3580
Hadoop伪分布式配置
http://localhost:50070/dfshealth.html#tab-overview
羊羽shine
2019/08/24
7420
2.1 Hadoop伪分布式安装部署
版权声明:本文为王小雷原创文章,未经博主允许不得转载 https://blog.csdn.net/dream_an/article/details/80700530
王小雷
2019/05/29
5590
hadoop之完全分布式集群配置(centos7)
克隆好之后需要做三件事:1、更改主机名称 2、修改ip地址 3、将ip地址和对应的主机号加入到/etc/hosts文件中
西西嘛呦
2020/08/26
4770
hadoop之完全分布式集群配置(centos7)
Hadoop伪分布式集群安装部署
一、 准备环境 1, 安装简介 Java-- jdk-8u121-linux-x64.tar.gz Hadoop--hadoop-2.7.4.tar.gz (jdk1.7会报错) 本系列教程所有ja
Spark学习技巧
2018/01/31
8780
Hadoop伪分布式集群安装部署
Hadoop单机伪分布式部署
Hadoop 在单节点上以伪分布式模式运行,其中每个 Hadoop 守护进程在单独的 Java 进程中运行。
云原生
2022/09/01
3550
Hadoop单机伪分布式部署
Hadoop 入门教程(超详细)[通俗易懂]
在 Hadoop 1.x 时代,Hadoop 中的 MapReduce 同时处理业务逻辑运算和资源调度,耦合性较大。 在 Hadoop 2.x 时代,增加了 Yarn。Yarn 只负责资源的调度,MapReduce 只负责运算。
全栈程序员站长
2022/08/12
11.1K0
Hadoop 入门教程(超详细)[通俗易懂]
一文教你快速了解伪分布式集群搭建(超详细!)
首先,我们需要知道配置伪分布式集群要修改的配置文件 所有配置文件都在 /opt/module/hadoop-2.7.2/etc/hadoop/内
不温卜火
2020/10/28
5840
一文教你快速了解伪分布式集群搭建(超详细!)
Hadoop安装教程_单机及伪分布式
配置新的hadoop用户 查看是否配置成功 为hadoop用户增加管理员权限 退出重新登陆
用户1147754
2019/05/27
4860
【Hadoop 分布式部署 十 一: NameNode HA 自动故障转移】
问题描述: 上一篇就是NameNode 的HA 部署完成,但是存在问题,问题是如果 主NameNode的节点宕机了,还是需要人工去使用命令来切换NameNode的Acitve 这样很不方便,所以
梅花
2020/09/28
8550
Hadoop安装教程_分布式集群
选择典型的集群规划,即一台Master,两台Slave的设置。 主机名及局域网IP配置如下:
用户1147754
2019/05/26
4730
【一】、搭建Hadoop环境----本地、伪分布式
    1.搭建Hadoop环境需要Java的开发环境,所以需要先在LInux上安装java
梅花
2020/09/28
6160
【一】、搭建Hadoop环境----本地、伪分布式
Hadoop2.5.0伪分布式环境搭建
本章主要介绍下在Linux系统下的Hadoop2.5.0伪分布式环境搭建步骤。首先要搭建Hadoop伪分布式环境,需要完成一些前置依赖工作,包括创建用户、安装JDK、关闭防火墙等。
星哥玩云
2022/07/26
6410
VMware上CentOS7.0+Hadoop3.1伪分布式搭建
最近要搭建一个Hadoop做实验,因为版本的问题遇到不少的坑,本文记录VMware上搭建的CentOS7.0+Hadoop3.1伪分布式的整个过程。
星哥玩云
2022/07/13
5880
VMware上CentOS7.0+Hadoop3.1伪分布式搭建
hadoop2.5.0完全分布式环境搭建(亲测有效)
      说在前头的一些东西,关于Linux本身环境本身的一些处理见如下链接,主要是讲Hadoop环境的前期准备:http://www.jianshu.com/p/d8720d0828dd
z小赵
2018/09/05
4770
推荐阅读
相关推荐
【Hadoop 分布式部署 十:配置HDFS 的HA、启动HA中的各个守护进程】
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文