Hadoop1安装
1环境准备
1.1安装3台虚拟机
1.2修改ip地址、主机名(所有节点)
vi/etc/sysconfig/network-scripts/ifcfg-eth0
主机名vi /etc/sysconfig/network
再hostname master使之立马生效
(其它节点一样操作)
1.3关闭防火墙(所有节点)
vi/etc/sysconfig/selinux
Setenforce 0
Getenforce查看状态
关闭防火墙
/etc/init.d/iptablesstop
1.4配置hosts、ssh免密登录(所有节点)
Vi /etc/hosts
再三个节点上执行ssh-keygen
Master进入.ssh复制id_rsq.pub >authorized_keys
将其它节点的id_rsq.pub内容复制到authorized_keys中
将authorized_keys文件传到其它节点
scp -rauthorized_keys slave1:/root/.ssh/
验证
Ssh slave1
2安装jdk
2
2.1卸载原系统自带的openjdk
2.2安装jdk1.6
上传安装包,并赋予权限(chmod 777)
执行./jdk-6u45-linux-x64.bin
设置环境变量vi ~/.bashrc
# vim ~/.bashrc
export JAVA_HOME=/usr/local/src/jdk1.6.0_45
export CLASSPATH=.:$CLASSPAHT:$JAVA_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin
#source ~/.bashrc#使变量生效
将安装好的包复制到slave1、slave2上并配置环境变量
# scp -rpjdk1.6.0_45 slave1:/usr/local/src/
2.3安装hadoop1.2.1
解压包
在hadoop1.2.1下新建tmp目录
进入conf目录,修改相应配置文件
修改masters
改为
修改slaves
改为
修改core-site.xml
/usr/local/src/hadoop-1.2.1/tmp
hdfs://192.168.20.128:9000
修改mapred-site.xml
http://192.168.20.128:9001
修改hdfs-site.xml
dfs.replication
3
修改hadoop-env.sh
文档末尾加上java环境变量:export JAVA_HOME=/usr/local/src/jdk1.6.0_45
将安装好的hadoo1.2.1复制到slave1和slave2上
# scp -rp hadoop-1.2.1slave1:/usr/local/src/
# scp -rp hadoop-1.2.1 slave2:/usr/local/src/
修改环境变量
source ~/.bashrc
2.4启动hadoop集群
1)进入hadoop1.2.1/bin下
2)# ./hadoop namenode –format
注意:第一次启动需要对namenode进行格式化,需要加入“namenode-format”命名。
3)的格式化完成后,启动整个集群:
# ./start-all.sh
4)查看集群状态是否有问题:
# jps
2.5验证hadoop
1)查看当前hadoop环境
# ./hadoop fs -ls /
2)往集群中上传文件
# ./hadoop fs -put /etc/passwd /
3)上传后,查看列表
# ./hadoop fs -ls /
4)查看文件
# ./hadoop fs -cat /passwd
到此hadoop环境已经搭建成功。
领取专属 10元无门槛券
私享最新 技术干货