前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hadoop伪分布式搭建

Hadoop伪分布式搭建

作者头像
姜同学
发布2022-10-27 16:39:34
4680
发布2022-10-27 16:39:34
举报
文章被收录于专栏:姜同学姜同学
代码语言:javascript
复制
1.	关闭防火墙
2. 	安装JDK
3.	修改主机名,在Hadoop中,要求主机名中不能出现_和-
	cd /etc/sysconfig
	vim network
	修改HOSTNAME,主机名最好是字母或者数字,但是不能全部是数字,数字最好不作为开头。例如:
	HOSTNAME=hadoop01
	保存退出,并且重新生效
	source network
4.	将主机名和IP进行映射
	cd ..
	vim hosts
	添加映射,例如:
	192.168.229.131 hadoop01
	保存退出
5.	重启
	reboot
6.	配置免密登陆
	生成公私钥
	ssh-keygen
	配置免密
	ssh-copy-id root@hadoop01
	密码:tarena2017Up;
	测试一下是否免密:
	ssh hadoop01
7.	下载Hadoop
8.	解压Hadoop
	tar -xvf hadoop-2.7.1_64bit.tar.gz
9.	进入Hadoop的安装路径
	cd hadoop-2.7.1
	cd etc/Hadoop
10.	编辑hadoop-env.sh
	vim hadoop-env.sh
	修改
	export JAVA_HOME=/home/presoftware/jdk1.8
	export HADOOP_CONF_DIR=/home/bigdata/hadoop-2.7.1/etc/hadoop
	保存退出,重新生效
	source hadoop-env.sh
11.	编辑core-site.xml
	vim core-site.xml
	添加:
	<!-- 指定文件系统 -->
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://hadoop01:9000</value>
	</property>
	<!-- 指定HDFS的数据存储位置 -->
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/home/software/hadoop-2.7.1/tmp</value>
	</property>
12.	编辑hdfs-site.xml
	vim hdfs-site.xml
	添加:
	<!-- 指定HDFS中的副本数量 -->
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>
13.	编辑mapred-site.xml
	cp mapred-site.xml.template mapred-site.xml
	vim mapred-site.xml
	添加:
	<!-- 将MapReduce配置成基于YARN的系统 -->
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
14.	编辑yarn-site.xml
	vim yarn-site.xml
	添加:
	<!-- 指定YARN中ResourceManager的地址 -->
	<property>
		<name>yarn.resourcemanager.hostname</name>
		<value>hadoop01</value>
	</property>
	<!-- 指定NodeManager中数据获取的方式 -->
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
15.	编辑slaves文件
	vim slaves
	添加当前的主机名,例如:
	hadoop01
16.	配置环境变量
	vim /etc/profile
	添加:
	export HADOOP_HOME=/home/software/hadoop-2.7.1
	export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
	保存退出之后,重新生效:
	source /etc/profile
17. 第一次启动Hadoop之前需要进行一次格式化
	hadoop namenode -format
	****command not found --- 环境变量
	****如果出现其他错误,查看core-site.xml和hdfs-site.xml
18.	启动Hadoop
	start-all.sh
	如果启动成功,利用jps查看,会出现以下6个进程:
	Jps
	NameNode --- 50070
	DataNode --- 50075
	SecondaryNameNode --- 50090
	ResourceManager --- 8088
	NodeManager

	如果是命令找不到,则表示环境变量配置错误或者是没有source
	如果少了NameNode或者DataNode:
		a.coere-site.xml或者hdfs-site.xml配置错误
		b.多次格式化 - 删除/home/software/hadoop-2.7.1/tmp重新格式化重新启动
	如果少了ResourceManager或者NodeManager:
		查看yarn-site.xml
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-08-06T,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
数据保险箱
数据保险箱(Cloud Data Coffer Service,CDCS)为您提供更高安全系数的企业核心数据存储服务。您可以通过自定义过期天数的方法删除数据,避免误删带来的损害,还可以将数据跨地域存储,防止一些不可抗因素导致的数据丢失。数据保险箱支持通过控制台、API 等多样化方式快速简单接入,实现海量数据的存储管理。您可以使用数据保险箱对文件数据进行上传、下载,最终实现数据的安全存储和提取。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档