gfs被称为谷歌的三驾马车之一,主要面向谷歌的大流量流式读取和append写,通过控制流与数据流解耦提升并发能力。
GFS核心在于,master只告诉你地址,不给你数据,要取数据?自己去问chunkserver。至于chunksever给不给,master说了算。
GFS架构
GFS的本质就是将数据流和控制流解耦,master只负责控制流,提供metadata,chunkserver只负责数据流,提供data。
Performance can be improved by scheduling expensive data flow based on the network topology。在数据推送过程中,可以选择最近的chunkserver,而不需要在意推送顺序。推送顺序由同步保证
就是这么设计,master只提供url,但是client允许直接访问数据而没有加入校验的控制流,所以也不是很完善,而且返回url本身开销也很大(once per request),增加控制流开销,也算是trade-off了。
相比之下,gfs增加了master对数据的控制流,并且数据流远远大于控制流,在这种workload下控制流和数据流分离就是绝佳的设计了。此时虽然client上控制流和数据流仍然耦合,但是因为他只是边缘端的,根本没有多少流量,所以也不会有什么性能瓶颈。
存储文件系统的metadata于内存中
namespace和mapping同时通过operation log持久化,location则通过chunkserver的心跳来获得,决定系统的访问权限。
这里的namespace并非inode文件系统,没有symlink也没有hardlink,路径名并非真正的目录,通过前缀压缩性能优化。(猜测数据结构为Trie,单词查找树,是哈希树的变种)每个节点都有一把读写锁。
master虽然有全局了解,简化设计,但不是bottleneck(后来的改进证明谷歌还是乐观了)
master的状态通过log和checkpoint备份,宕机时启动备份并且修改DNS从而得到primary。
这些备份的"shadow"master提供只读权限,但不要求强一致性从而避免性能开销,允许延后根据日志来进行同步。因此master在恢复的时候也允许进行读取,提供fault tolerance。
存储文件系统的data于内存中,每个chunk大小固定64MB。
数据冗余采用3-way mirror,分散在不同机器、不同rack,防止同时崩溃。
通过心跳信息与master通信,由master决定访问权限,但是chunk是否存在则由chunkserver自己决定而非master。
存在primary/backup,由primary决定写入顺序保证同步并减轻master负担,primary通过抢锁获得,抢到锁的成为primary,但是需要定期续约,否则会自动释放(primary崩溃)。
如果选择replicas检测到checksum不正确,则会返回错误并要求client重试其他replicas,并向master请求同步其他replicas。
checksum具体实现复制 https://www.cnblogs.com/lushilin/p/8665178.html
checksum具体实现复制 https://www.cnblogs.com/lushilin/p/8665178.html
对于Master采取数据切分,进一步提高并发能力
对于Chunk使用1.5倍的冗余编码Reed-Solomon减少冗余备份,提供纠错机制
Problem: 提供大规模文件的分布式存储
Related work: 组件故障是常态,规模不够大,没有append专门优化,应用API没有共同设计
Observation: 控制流数据流分离 + 先推送数据再执行同步
Solution: Master只寻址chunk,Primary只需要顺序同步不需要数据同步。
Evaluation: 单Master掌握全局,高度中心化
Comments: 如果每个区域都需要本地化的GFS,那么Master放哪里呢?如果全球通用GFS,那么如何保证时延平衡呢?