首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Hadoop1安装

Hadoop1安装

1环境准备

1.1安装3台虚拟机

1.2修改ip地址、主机名(所有节点)

vi/etc/sysconfig/network-scripts/ifcfg-eth0

主机名vi /etc/sysconfig/network

再hostname master使之立马生效

(其它节点一样操作)

1.3关闭防火墙(所有节点)

vi/etc/sysconfig/selinux

Setenforce 0

Getenforce查看状态

关闭防火墙

/etc/init.d/iptablesstop

1.4配置hosts、ssh免密登录(所有节点)

Vi /etc/hosts

再三个节点上执行ssh-keygen

Master进入.ssh复制id_rsq.pub >authorized_keys

将其它节点的id_rsq.pub内容复制到authorized_keys中

将authorized_keys文件传到其它节点

scp -rauthorized_keys slave1:/root/.ssh/

验证

Ssh slave1

2安装jdk

2

2.1卸载原系统自带的openjdk

2.2安装jdk1.6

上传安装包,并赋予权限(chmod 777)

执行./jdk-6u45-linux-x64.bin

设置环境变量vi ~/.bashrc

# vim ~/.bashrc

export JAVA_HOME=/usr/local/src/jdk1.6.0_45

export CLASSPATH=.:$CLASSPAHT:$JAVA_HOME/lib

export PATH=$PATH:$JAVA_HOME/bin

#source ~/.bashrc#使变量生效

将安装好的包复制到slave1、slave2上并配置环境变量

# scp -rpjdk1.6.0_45 slave1:/usr/local/src/

2.3安装hadoop1.2.1

解压包

在hadoop1.2.1下新建tmp目录

进入conf目录,修改相应配置文件

修改masters

改为

修改slaves

改为

修改core-site.xml

/usr/local/src/hadoop-1.2.1/tmp

hdfs://192.168.20.128:9000

修改mapred-site.xml

http://192.168.20.128:9001

修改hdfs-site.xml

dfs.replication

3

修改hadoop-env.sh

文档末尾加上java环境变量:export JAVA_HOME=/usr/local/src/jdk1.6.0_45

将安装好的hadoo1.2.1复制到slave1和slave2上

# scp -rp hadoop-1.2.1slave1:/usr/local/src/

# scp -rp hadoop-1.2.1 slave2:/usr/local/src/

修改环境变量

source ~/.bashrc

2.4启动hadoop集群

1)进入hadoop1.2.1/bin下

2)# ./hadoop namenode –format

注意:第一次启动需要对namenode进行格式化,需要加入“namenode-format”命名

3)的格式化完成后,启动整个集群:

# ./start-all.sh

4)查看集群状态是否有问题:

# jps

2.5验证hadoop

1)查看当前hadoop环境

# ./hadoop fs -ls /

2)往集群中上传文件

# ./hadoop fs -put /etc/passwd /

3)上传后,查看列表

# ./hadoop fs -ls /

4)查看文件

# ./hadoop fs -cat /passwd

到此hadoop环境已经搭建成功。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180314G17DPY00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券