MIT 今年终于主动在 Youtube 上放出了随堂视频资料,之前跟过一半这门课,今年打算刷一下视频,写写随堂笔记。该课程以分布式基础理论:容错、备份、一致性为脉络,以精选的工业级系统论文为主线,再填充上翔实的阅读材料和精到的课程实验,贯通学术理论和工业实践,实在是一门不可多得的分布式系统佳课。课程视频和资料看这里。

构建分布式系统的原因:
分布式系统面临的挑战:
本课程旨在学习支撑应用的基础设施抽象(abstraction),包括
最终理想是提供能够屏蔽分布式细节的、类似于单机的通用接口,同时能兼具容错和性能。
对于上述抽象,我们有哪些实现呢?
Scalability,可扩展性
单机虽好,作为上千台机器组成的集群来说,故障却是常态。比如说:
Availability 可用性 Recoverbility 可恢复性,无干预 、不影响正确性的可恢复
手段: NV storage:持久化 Replication:多副本
分布式系统产生不一致的因素:
不同程度的一致性:
Google (2003 年左右)面对巨量(数十 T)的索引数据和全网结构的数据,需要找到最重要的网页。可以简化为一个排序问题,但如此数量级的排序,单机不是一个可选项。而又不是所有工程师都有手撸分布式系统的能力,因此产生了做一个分布式框架的需求,以对应用程序员屏蔽分布式环境细节:
等等。
以 WordCount 为例:
Map: document -> (word, 1)
Shuffle:group by word in Map machine,send each key Range to the corresponding Reduce Machine。
Reduce: List(word, 1) -> (word, count)
任务:Job
工作:Task,分为 Map Task 和 Reduce Task。
工作节点:worker server
工作进程:worker process
主节点:master server
为了更好的并行读写,需要一个网络文件系统来配合输入和输出,这就是 GFS(谷歌文件系统)。
GFS 可以简单理解为,一个将大文件拆为一个个小的 64M 的块分散到不同机器上网络文件系统。
为了尽量绕开当时的主要瓶颈(网络传输),Google 做了一系列优化,包括 GFS 和 MR 跑在一个集群上,以减少读取和写入数据的网络传输。具体做法是让 Map 任务(Map Task)去找数据(Block)—— 将 Task 调度到其输入所在的机器上。但对于 Reduce 任务,无论如何都会存在大量网络开销:GFS 对数据都进行了冗余备份,意味着每个结果都要写多次。
不过,时下的数据中心可以通过很多手段使得网络传输的速度大大提高,比如使用多个根路由器进行分摊流量,意味着在设计时可以有更多灵活性,不用太为网络传输而优化。