前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >前方高能 | HDFS 的架构,你吃透了吗?

前方高能 | HDFS 的架构,你吃透了吗?

作者头像
大数据梦想家
发布2021-10-22 14:30:20
4030
发布2021-10-22 14:30:20
举报

本文已收录github:https://github.com/BigDataScholar/TheKingOfBigData,里面有我准备的大数据高频考点,Java一线大厂面试题资源,上百本免费电子书籍,作者亲绘大数据生态圈思维导图…持续更新,欢迎star!

前言

HDFS 是 Hadoop 中存储数据的基石,存储着所有的数据,具有高可靠性,高容错性,高可扩展性,高吞吐量等特征,能够部署在大规模廉价的集群上,极大地降低了部署成本。有意思的是,其良好的架构特征使其能够存储海量的数据。本篇文章,我们就来系统学习一下,Hadoop HDFS的架构!

在这里插入图片描述
在这里插入图片描述

HDFS架构

HDFS采用 Master/Slave 架构存储数据,且支持 NameNode 的 HA。HDFS架构主要包含客户端,NameNodeSecondaryNameNodeDataNode 四个重要组成部分,如图所示:

在这里插入图片描述
在这里插入图片描述

(1)客户端向NameNode发起请求,获取元数据信息,这些元数据信息包括命名空间、块映射信息及 DataNode 的位置信息等。

(2)NameNode 将元数据信息返回给客户端。

(3)客户端获取到元数据信息后,到相应的 DataNode 上读/写数据

(4)相关联的 DataNode 之间会相互复制数据,以达到 DataNode 副本数的要求

(5)DataNode 会定期向 NameNode 发送心跳信息,将自身节点的状态信息报告给 NameNode。

(6)SecondaryNameNode 并不是 NameNode 的备份。SecondaryNameNode 会定期获取 NameNode 上的 fsimageedits log 日志,并将二者进行合并,产生 fsimage.ckpt 推送给 NameNode。

1、NameNode

NameNode 是整个 Hadooop 集群中至关重要的组件,它维护着整个 HDFS 树,以及文件系统树中所有的文件和文件路径的元数据信息。这些元数据信息包括文件名命令空间文件属性(文件生成的时间、文件的副本数、文件的权限)、文件数据块文件数据块与所在 DataNode 之间的映射关系等。

一旦 NameNode 宕机或 NameNode 上的元数据信息损坏或丢失,基本上就会丢失 Hadoop 集群中存储的所有数据,整个 Hadoop 集群也会随之瘫痪。

在 Hadoop 运行的过程中, NameNode 的主要功能如下图所示:

在这里插入图片描述
在这里插入图片描述

2、SecondaryNameNode

SecondaryNameNode 并不是 NameNode 的备份,在NameNode 发生故障时也不能立刻接管 NameNode 的工作。SecondaryNameNode 在 Hadoop 运行的过程中具有两个作用:一个是备份数据镜像,另一个是定期合并日志与镜像,因此可以称其为 Hadoop 的检查点(checkpoint)。SecondaryNameNode 定期合并 NameNode 中的 fsimage 和 edits log,能够防止 NameNode 重启时把整个 fsimage 镜像文件加载到内存,耗费过长的启动时间。

SecondaryNameNode 的工作流程如图所示:

在这里插入图片描述
在这里插入图片描述

SecondaryNameNode的工作流程如下:

(1)SecondaryNameNode 会通知 NameNode 生成新的 edits log 日志文件。

(2)NameNode 生成新的 edits log 日志文件,然后将新的日志信息写到新生成的 edits log 日志文件中。

(3)SecondaryNameNode 复制 NameNode 上的 fsimage 镜像和 edits log 日志文件,此时使用的是 http get 方式。

(4)SecondaryNameNodefsimage将镜像文件加载到内存中,然后执行 edits log 日志文件中的操作,生成新的镜像文件 fsimage.ckpt

(5)SecondaryNameNodefsimage.ckpt 文件发送给 NameNode,此时使用的是 http post 方式。

(6)NameNodeedits log 日志文件替换成新生成的 edits.log 日志文件,同样将 fsimage文件替换成 SecondaryNameNode 发送过来的新的 fsimage 文件。

(7)NameNode 更新 fsimage 文件,将此次执行 checkpoint 的时间写入 fstime 文件中。

经过 SecondaryNameNodefsimage 镜像文件和 edits log 日志文件的复制和合并操作之后,NameNode 中的 fsimage 镜像文件就保存了最新的 checkpoint 的元数据信息, edits log 日志文件也会重新写入数据,两个文件中的数据不会变得很大。因此,当重启 NameNode 时,不会耗费太长的启动时间。

SecondaryNameNode 周期性地进行 checkpoint 操作需要满足一定的前提条件,这些条件如下

(1)edits log 日志文件的大小达到了一定的阈值,此时会对其进行合并操作。

(2)每隔一段时间进行 checkpoint 操作。

这些条件可以在core-site.xml文件中进行配置和调整,代码如下所示:

代码语言:javascript
复制
<property>
         <name>fs.checkpoint.period</name>
         <value>3600</value>
</property>
<property>
         <name>fs.checkpoint.size</name>
         <value>67108864</value>
</property>

上述代码配置了 checkpoint 发生的时间周期和 edits log日志文件的大小阈值,说明如下。

(1)fs.checkpoint.period:表示触发 checkpoint发生的时间周期,这里配置的时间周期为 1 h。

(2)fs.checkpoint.size:表示 edits log 日志文件大小达到了多大的阈值时会发生 checkpoint操作,这里配置的 edits log大小阈值为 64 MB。

上述代码中配置的 checkpoint操作发生的情况如下:

(1)如果 edits log 日志文件经过 1 h 未能达到 64 MB,但是满足了 checkpoint发生的周期为 1 h 的条件,也会发生 checkpoint 操作。

(2)如果 edits log日志文件大小在 1 h 之内达到了 64MB,满足了 checkpoint 发生的 edits log日志文件大小阈值的条件,则会发生 checkpoint操作。

注意:如果 NameNode 发生故障或 NameNode 上的元数据信息丢失或损坏导致 NameNode 无法启动,此时就需要人工干预,将 NameNode 中的元数据状态恢复到 SecondaryNameNode 中的元数据状态。此时,如果 SecondaryNameNode 上的元数据信息与 NameNode 宕机时的元数据信息不同步,则或多或少地会导致 Hadoop 集群中丢失一部分数据。出于此原因,应尽量避免将 NameNode 和 SecondaryNameNode 部署在同一台服务器上

3、DataNode

DataNode 是真正存储数据的节点,这些数据以数据块的形式存储在 DataNode 上。一个数据块包含两个文件:一个是存储数据本身的文件,另一个是存储元数据的文件(这些元数据主要包括数据块的长度、数据块的检验和、时间戳)。

DataNode 运行时的工作机制如图所示:

在这里插入图片描述
在这里插入图片描述

如图所示,DataNode 运行时的工作机制如下:

(1)DataNode启动之后,向 NameNode 注册

(2)NameNode 返回注册成功的消息给 DataNode。

(3)DataNode 收到 NameNode 返回的注册成功的信息之后,会周期性地向 NameNode 上报当前 DataNode 的所有块信息,默认发送所有数据块的时间周期是 1h

(4)DataNode 周期性地向NameNode 发送心跳信息;NameNode 收到 DataNode 发来的心跳信息后,会将DataNode 需要执行的命令放入到 心跳信息的 返回数据中,返回给 DataNode。DataNode 向 NameNode 发送心跳信息的默认时间周期是 3s

(5)NameNode 超过一定的时间没有收到 DataNode 发来的心跳信息,则 NameNode 会认为对应的 DataNode 不可用。默认的超时时间是 10 min。

(6)在存储上相互关联的 DataNode 会同步数据块,以达到数据副本数的要求

当 DataNode 发生故障导致 DataNode 无法与 NameNode 通信时,NameNode 不会立即认为 DataNode 已经 “死亡”。要经过一段短暂的超时时长后才会认为 DataNode 已经 “死亡”。HDFS 中默认的超时时长为 10 min + 30 s,可以用如下公式来表示这个超时时长:

代码语言:javascript
复制
timeout = 2 * dfs.namenode.heartbeat.recheck-interval +10 * dfs.heartbeat.interval

其中,各参数的含义如下:

(1)timeout:超时时长。

(2)dfs.namenode.heartbeat.recheck-interval:检查过期 DataNode 的时间间隔,与 dfs.heartbeat.interval 结合使用,默认的单位是 ms,默认时间是 5 min。

(3)dfs.heartbeat.interval:检测数据节点的时间间隔,默认的单位为 s,默认的时间是 3 s。

所以,可以得出 DataNode 的默认超时时长为 630s,如下所示:

代码语言:javascript
复制
timeout = 2 * 5 * 60 + 10 * 3 = 630s

DataNode 的超时时长也可以在 hdfs-site.xml文件中进行配置,代码如下所示:

代码语言:javascript
复制
<property>
     <name>dfs.namenode.heartbeat.recheck-interval</name>
     <value>3000</value>
</property>
<property>
     <name>dfs.heartbeat.interval</name>
     <value>2</value>
</property>

根据上面的公式可以得出,在配置文件中配置的超时时长为:

代码语言:javascript
复制
timeout = 2 * 3000 / 1000 + 10 * 2 = 26s

当 DataNode 被 NameNode 判定为 “死亡”时,HDFS 就会马上自动进行数据块的容错复制。此时,当被 NameNode 判定为 “死亡” 的 DataNode 重新加入集群中时,如果其存储的数据块并没有损坏,就会造成 HDFS 上某些数据块的备份数超过系统配置的备份数目

HDFS上删除多余的数据块需要的时间长短和数据块报告的时间间隔有关。该参数可以在 hdfs-site.xml文件中进行配置,代码如下所示:

代码语言:javascript
复制
<property>
     <name>dfs.blockreport.intervalMsec</name>
     <value>21600000</value>
     <description>Determines block reporting interval in milliseconds.</description>
</property>

数据块报告的时间间隔默认为 21600000ms,即 6h,可以通过调整此参数的大小来调整数据块报告的时间间隔。


小结

本篇文章算是对 HDFS的架构解释的比较透彻,相信不论是刚入门的小白,还是已经有了一定基础的大数据学者,看完都会有一定的收获,希望大家平时学习也能够多学会总结,用输出倒逼自己输入!

巨人的肩膀

1、《海量数据处理与大数据技术实战》 2、《大数据平台架构与原型实现》 3、https://baike.baidu.com/item/hdfs/4836121?fr=aladdin 4、http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_user_guide.html

好了,本篇文章就到这里,更多干货文章请关注我的公众号。你知道的越多,你不知道的也越多。我是梦想家,点个关注,我们下一期见!

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2021-03-03 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • HDFS架构
    • 1、NameNode
      • 2、SecondaryNameNode
        • 3、DataNode
        • 小结
        • 巨人的肩膀
        相关产品与服务
        大数据
        全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档