环境准备
tar zxvf hadoop-2.6.5.tar.gz -C /home/hadoop/apps/
hadoop的配置文件在HADOOP_HOME/etc/hadoop/下
export JAVA_HOME=/usr/local/jdk1.8.0_73
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoopdata</value>
</property>
</configuration>
<configuration>
<!--
这两个配置用于指定namenode和datanode存放数据的位置
如果不指定,数据会存放到core-site.xml中配hadoop.tmp.dir目录下
-->
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/hadoopdata/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/hadoopdata/data</value>
</property>
<!--配置数据副本数,不要超过datanode节点数-->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<!--指定secondarynamenode所在节点-->
<property>
<name>dfs.secondary.http.address</name>
<value>node02:50090</value>
</property>
</configuration>
集群中只有mapred-site.xml.template,可以从这个文件进行复制
cp mapred-site.xml.template mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node03</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
node02
node03
node04
[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node02:/home/hadoop/apps/
[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node03:/home/hadoop/apps/
[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node04:/home/hadoop/apps/
vim ~/.bash_profile
export HADOOP_HOME=/home/hadoop/apps/hadoop-2.6.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
[hadoop@node01 ~]# hdfs namenode -format
看到以下信息说明格式化成功:
[hadoop@node01 ~]# start-dfs.sh
[hadoop@node03 ~]# start -yarn.sh
[hadoop@node01 ~]# jps
4000 NameNode
4281 Jps
[hadoop@node02 ~]# jps
3442 SecondaryNameNode
3289 DataNode
3375 NodeManager
3647 Jps
[hadoop@node03 ~]# jps
2945 DataNode
3019 ResourceManager
3118 NodeManager
3919 Jps
[hadoop@node04 ~]# jps
2899 DataNode
2984 NodeManager
3149 Jps
# 上传一个文件
[hadoop@node01 ~]# hdfs dfs -put ./install.log /
# 执行一个mapreduce例子程序
[hadoop@node01 mapreduce]# pwd
/home/hadoop/apps/hadoop-2.6.5/share/hadoop/mapreduce
[root@node02 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.6.5.jar pi 5 5
文件上传成功:
任务成功运行:
到这里,hadoop完全分布式集群就已经搭建成功了!
日志默认在HADOOP_HOME/logs下,如果不删除,日志文件会越积累越多,占用磁盘
删除你配置的hadoop.tmp.dir
这个目录,如果你配置了dfs.datanode.data.dir
和dfs.datanode.name.dir
这两个配置,那么把这两个配置对应的目录也删除