前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >hadoop2.6.0完全分布式手动安装

hadoop2.6.0完全分布式手动安装

作者头像
字母哥博客
发布2020-09-23 11:00:07
3190
发布2020-09-23 11:00:07
举报
文章被收录于专栏:写字母的代码哥

规划主机角色

主机名

ip

角色

hadoop01

192.168.56.10

NameNode ResourceManager

hadoop02

192.168.56.11

DataNode NodeManager

hadoop03

192.168.56.12

DataNode NodeManager

hadoop04

192.168.56.13

DataNode NodeManager

规划用户角色

代码语言:javascript
复制
groupadd hadoop;
useradd -G hadoop cluster;
passwd cluster;

规划目录

  • hadoop安装目录 chown -R cluster.hadoop /home/cluster/hadoop
  • hadoop运行时文件路径 /home/cluster/hadoop/tmp
  • JDK安装目录 /usr/java/latest

准备Linux环境

代码语言:javascript
复制
 1.0虚拟机设置(网络)
 1.1修改主机名
      vim /etc/sysconfig/network
 1.2修改IP
      vim /etc/sysconfig/network-scripts/ifcfg-eth0
 1.3修改主机名和IP的映射关系
      vim /etc/hosts
 1.4关闭防火墙
      #查看防火墙状态
      service iptables status
      #关闭防火墙
      service iptables stop
      #查看防火墙开机启动状态
      chkconfig iptables --list
      #关闭防火墙开机启动
      chkconfig iptables off
      #关闭 selinux:
      setenforce 0
      sed "s@^SELINUX=enforcing@SELINUX=disabled@g" /etc/sysconfig/selinux
 1.6重启Linux
      reboot

安装JDK(root)

  • 配置环境变量
代码语言:javascript
复制
/etc/profile
.bash_profile
JAVA_HOME=/usr/java/latest
HADOOP_HOME=/home/cluster/hadoop
CLASSPATH=.:$JAVA_HOME/lib
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH

安装hadoop2.x

代码语言:javascript
复制
 注意:*hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop*
3.1配置hadoop
第一个:hadoop-env.sh
# set to the root of your Java installation
export JAVA_HOME=/usr/java/latest
# Assuming your installation directory is /usr/local/hadoop
export HADOOP_PREFIX=/home/cluster/hadoop
第二个:core-site.xml

<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/cluster/hadoop/tmp</value>
</property>
第三个:hdfs-site.xml
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
第四个:mapred-site.xml
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
第五个:yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop01</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
第六个:
vi slaves
hadoop02
hadoop03
3.2分发安装包
这一步可以使用ssh的scp,参考文末的ssh免密码ssh配置方式
3.3格式化namenode(是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format)
3.4启动hadoop
先启动HDFS
sbin/start-dfs.sh
再启动YARN
sbin/start-yarn.sh
3.5验证是否启动成功
使用jps命令验证
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode
3.6访问界面
http://192.168.56.10:50070 (HDFS管理界面)
http://192.168.56.10:8088 (MR管理界面)

配置ssh免登陆

代码语言:javascript
复制
                 >所有机器 ssh-keygen -t rsa 一路按回车;
>在master机器上执行:cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys;
>scp文件到其他几台机器:
scp ~/.ssh/authorized_keys cluster@hadoop02:~/.ssh/;
scp ~/.ssh/authorized_keys cluster@hadoop03:~/.ssh/;
scp ~/.ssh/authorized_keys cluster@hadoop04:~/.ssh/;
在hadoop02-04上执行(把id_rsa加到hadoop01的authorized_keys)
ssh-copy-id -i ~/.ssh/id_rsa.pub cluster@hadoop01;

遇到的问题: 15/05/01 09:56:48 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 下载:http://dl.bintray.com/sequenceiq/sequenceiq-bin/ 覆盖: tar -xvf hadoop-native-64-2.6.0.tar -C /home/cluster/hadoop/lib/native

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016-02-02),如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 规划主机角色
  • 规划用户角色
  • 规划目录
  • 准备Linux环境
  • 安装JDK(root)
  • 安装hadoop2.x
  • 配置ssh免登陆
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档