iam使用hadoop Apache2.7.1高可用性集群,该集群由两个名称节点mn1、mn2和3个日志节点组成
但是,当我在集群上工作时,我遇到了以下错误
当我发出start-dfs.sh命令时,mn1处于备用状态,而mn2处于活动状态
但在此之后,如果这两个名称节点中的一个被关闭,则不可能再次打开它,下面是这两个名称节点中的一个的最后几行日志
2017-08-05 09:37:21,063 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Need to save fs image? false (staleImage=tr
我对Hadoop集群datanode故障转移有一些疑问:
1: What happen the link is down between the namenode and a datanode
(or between 2 datanodes) when the hadoop cluster is processing some data?
Does Hadoop cluster have any OOTB to recover this problem?
2: What happen one datanode is down when the hadoop cluster is