The Google File System 中文版
译者:alex
摘要
我们设计并实现了 Google GFS 文件系统,一个面向大规模数据密集型应用的、可伸缩的
分布式文件系统。GFS 虽然运行在廉价的普遍硬件设备上,但是它依然了提供灾难冗余的
能力,为大量客户机提供了高性能的服务。
虽然 GFS 的设计目标与许多传统的分布式文件系统有很多相同之处,但是,我们的设计还
是以我们对自己的应用的负载情况和技术环境的分析为基础 的,不管现在还是将来,GFS
和早期的分布式文件系统的设想都有明显的不同。所以我们重新审视了传统文件系统在设计
上的折衷选择,衍生出了完全不同的设计 思路。
GFS 完全满足了我们对存储的需求。GFS 作为存储平台已经被广泛的部署在 Google 内部,
存储我们的服务产生和处理的数据,同时还用于那些 需要大规模数据集的研究和开发工作。
目前为止,最大的一个集群利用数千台机器的数千个硬盘,提供了数百 TB 的存储空间,同
时为数百个客户机服务。
在本论文中,我们展示了能够支持分布式应用的文件系统接口的扩展,讨论我们设计的许多
方面,最后列出了小规模性能测试以及真实生产系统中性能相关数据。
分类和主题描述
D [4]: 3—D 分布文件系统
常用术语
设计,可靠性,性能,测量
关键词
容错,可伸缩性,数据存储,集群存储
1. 简介
为了满足 Google 迅速增长的数据处理需求,我们设计并实现了 Google 文件系统(Google
File System – GFS)。GFS 与传统的分布式文件系统有着很多相同的设计目标,比如,性
能、可伸缩性、可靠性以及可用性。但是,我们的设计还基于我们对我们自己的应用 的负
载情况和技术环境的观察的影响,不管现在还是将来,GFS 和早期文件系统的假设都有明
显的不同。所以我们重新审视了传统文件系统在设计上的折衷选择, 衍生出了完全不同的
设计思路。
首先,组件失效被认为是常态事件,而不是意外事件。GFS 包括几百甚至几千台普通的廉
价设备组装的存储机器,同时被相当数量的客户机访问。 GFS 组件的数量和质量导致在事
实上,任何给定时间内都有可能发生某些组件无法工作,某些组件无法从它们目前的失效状
态中恢复。我们遇到过各种各样的问 题,比如应用程序 bug、操作系统的 bug、人为失误,
甚至还有硬盘、内存、连接器、网络以及电源失效等造成的问题。所以,持续的监控、错误
侦测、灾难冗 余以及自动恢复的机制必须集成在 GFS 中。
其次,以通常的标准衡量,我们的文件非常巨大。数 GB 的文件非常普遍。每个文件通常都
包含许多应用程序对象,比如 web 文档。当我们经常需要处 理快速增长的、并且由数亿个
对象构成的、数以 TB 的数据集时,采用管理数亿个 KB 大小的小文件的方式是非常不明智
的,尽管有些文件系统支持这样的管理方 式。因此,设计的假设条件和参数,比如 I/O 操
作和 Block 的尺寸都需要重新考虑。
第三,绝大部分文件的修改是采用在文件尾部追加数据,而不是覆盖原有数据的方式。对文
件的随机写入操作在实际中几乎不存在。一旦写完之后,对文 件的操作就只有读,而且通
常是按顺序读。大量的数据符合这些特性,比如:数据分析程序扫描的超大的数据集;正在
运行的应用程序生成的连续的数据流;存档的 数据;由一台机器生成、另外一台机器处理
的中间数据,这些中间数据的处理可能是同时进行的、也可能是后续才处理的。对于这种针
对海量文件的访问模式,客户 端对数据块缓存是没有意义的,数据的追加操作是性能优化
和原子性保证的主要考量因素。
第四,应用程序和文件系统 API 的协同设计提高了整个系统的灵活性。比如,我们放松了
对 GFS 一致性模型的要求,这样就减轻了文件系统对应用程 序的苛刻要求,大大简化了 G
FS 的设计。我们引入了原子性的记录追加操作,从而保证多个客户端能够同时进行追加操
作,不需要额外的同步操作来保证数据的一 致性。本文后面还有对这些问题的细节的详细
讨论。
Google 已经针对不同的应用部署了多套 GFS 集群。最大的一个集群拥有超过 1000 个存储
节点,超过 300TB 的硬盘空间,被不同机器上的数百个客户端连续不断的频繁访问。
2.设计概述
2.1 设计预期
在设计满足我们需求的文件系统时候,我们的设计目标既有机会、又有挑战。之前我们已经
提到了一些需要关注的关键点,这里我们将设计的预期目标的细节展开讨论。
系统由许多廉价的普通组件组成,组件失效是一种常态。系统必须持续监控自身的
状态,它必须将组件失效作为一种常态,能够迅速地侦测、冗余并恢复失效的组件。
系统存储一定数量的大文件。我们预期会有几百万文件,文件的大小通常在 100MB
或者以上。数个 GB 大小的文件也是普遍存在,并且要能够被有效的管理。系统也
必须支持小文件,但是不需要针对小文件做专门的优化。
系统的工作负载主要由两种读操作组成:大规模的流式读取和小规模的随机读取。
大规模的流式读取通常一次读取数百 KB 的数据,更常见的是一次读取 1MB 甚至更
多的数据。来自同一个客户机的连续操作通常是读取同一个文件中连续的一个区域。
小规模的随机读取通常是在文件某个随机的位置读取几个 KB 数 据。如果应用程序
对性能非常关注,通常的做法是把小规模的随机读取操作合并并排序,之后按顺序
批量读取,这样就避免了在文件中前后来回的移动读取位置。
系统的工作负载还包括许多大规模的、顺序的、数据追加方式的写操作。一般情况
下,每次写入的数据的大小和大规模读类似。数据一旦被写入后,文件就很少会被
修改了。系统支持小规模的随机位置写入操作,但是可能效率不彰。
系统必须高效的、行为定义明确的 (alex 注:well-defined)实现多 客户端并行
追加数据到同一个文件里的语意。我们的文件通常被用于‖生产者-消费者―队列,或
者其它多路文件合并操作。通常会有数百个生产者,每个生产者进 程运行在一台机
器上,同时对一个文件进行追加操作。使用最小的同步开销来实现的原子的多路追
加数据操作是必不可少的。文件可以在稍后读取,或者是消费者在 追加的操作的同
时读取文件。
高性能的稳定网络带宽远比低延迟重要。我们的目标程序绝大部分要求能够高速率
的、大批量的处理数据,极少有程序对单一的读写操作有严格的响应时间要求。
2.2 接口
GFS 提供了一套类似传统文件系统的 API 接口函数,虽然并不是严格按照 POSIX 等标准 A
PI 的形式实现的。文件以分层目录的形式组织,用路径名来标识。我们支持常用的操作,
如创建新文件、删除文件、打开文件、关闭文件、读和写文件。
另外,GFS 提供了快照和记录追加操作。快照以很低的成本创建一个文件或者目录树的拷
贝。记录追加操作允许多个客户端同时对一个文件进行数据追 加操作,同时保证每个客户
端的追加操作都是原子性的。这对于实现多路结果合并,以及‖生产者-消费者‖队列非常有用,
多个客户端可以在不需要额外的同步锁 定的情况下,同时对一个文件追加数据。我们发现
这些类型的文件对于构建大型分布应用是非常重要的。快照和记录追加操作将在 3.4 和 3.3
节分别讨论。
2.3 架构
一个 GFS 集群包含一个单独的 Master 节点 (alex 注:这里的一个单 独的 Master 节点的
含义是 GFS 系统中只存在一个逻辑上的 Master 组件。后面我们还会提到 Master 节点复制,
因此,为了理解方便,我们把 Master 节点视为一个逻辑上的概念,一个逻辑的 Master 节
点包括两台物理主机,即两台 Master 服务器)、多台 Chunk 服务器,并且同时被多个客户
端访问,如图 1 所示。所有的这些机器通常都是普通的 Linux 机器,运行着用户级别(user-
level)的服务 进程。我们可以很容易的把 Chunk 服务器和客户端都放在同一台机器上,前
提是机器资源允许,并且我们能够接受不可靠的应用程序代码带来的稳定性降低的风 险。
GFS 存储的文件都被分割成固定大小的 Chunk。在 Chunk 创建的时候,Master 服务器会
给每个 Chunk 分配一个不变的、全球唯一的 64 位的 Chunk 标识。Chunk 服务器把 Chun
k 以 linux 文件的形式保存在本地硬盘上,并且根据指定的 Chunk 标识和字节范围来读写块
数据。 出于可靠性的考虑,每个块都会复制到多个块服务器上。缺省情况下,我们使用 3
个存储复制节点,不过用户可以为不同的文件命名空间设定不同的复制级别。
Master 节点管理所有的文件系统元数据。这些元数据包括名字空间、访问控制信息、文件
和 Chunk 的映射信息、以及当前 Chunk 的位置信息。Master 节点还管理着系统范围内的
活动,比如,Chunk 租用管理 (alex 注:BDB 也有关于 lease 的描述,不知道是否相同)、
孤儿 Chunk (alex 注:orphaned chunks)的回收、以及 Chunk 在 Chunk 服务器之间的迁
移。Master 节点使用心跳信息周期地和每个 Chunk 服务器通讯,发送指令到各个 Chunk
服务器并接收 Chunk 服务器的状态信息。
GFS 客户端代码以库的形式被链接到客户程序里。客户端代码实现了 GFS 文件系统的 API
接口函数、应用程序与 Master 节点和 Chunk 服 务器通讯、以及对数据进行读写操作。客
户端和 Master 节点的通信只获取元数据,所有的数据操作都是由客户端直接和 Chunk 服务
器进行交互的。我们不 提供 POSIX 标准的 API 的功能,因此,GFS API 调用不需要深入
到 Linux vnode 级别。
无论是客户端还是 Chunk 服务器都不需要缓存文件数据。客户端缓存数据几乎没有什么用
处,因为大部分程序要么以流的方式读取一个巨大文件,要 么工作集太大根本无法被缓存。
无需考虑缓存相关的问题也简化了客户端和整个系统的设计和实现。(不过,客户端会缓存
元数据。)Chunk 服务器不需要缓存 文件数据的原因是,Chunk 以本地文件的方式保存,L
inux 操作系统的文件系统缓存会把经常访问的数据缓存在内存中。
2.4 单一 Master 节点
单一的 Master 节点的策略大大简化了我们的设计。单一的 Master 节点可以通过全局的信
息精确定位 Chunk 的位置以及进行复制决策。另 外,我们必须减少对 Master 节点的读写,
避免 Master 节点成为系统的瓶颈。客户端并不通过 Master 节点读写文件数据。反之,客
户端向 Master 节点询问它应该联系的 Chunk 服务器。客户端将这些元数据信息缓存一段
时间,后续的操作将直接和 Chunk 服务器进行数据读写操作。
我们利用图 1 解释一下一次简单读取的流程。首先,客户端把文件名和程序指定的字节偏
移,根据固定的 Chunk 大小,转换成文件的 Chunk 索 引。然后,它把文件名和 Chunk 索
引发送给 Master 节点。Master 节点将相应的 Chunk 标识和副本的位置信息发还给客户端。
客户端用文件名和 Chunk 索引作为 key 缓存这些信息。
之后客户端发送请求到其中的一个副本处,一般会选择最近的。请求信息包含了 Chunk 的
标识和字节范围。在对这个 Chunk 的后续读取操作中, 客户端不必再和 Master 节点通讯
了,除非缓存的元数据信息过期或者文件被重新打开。实际上,客户端通常会在一次请求中
查询多个 Chunk 信 息,Master 节点的回应也可能包含了紧跟着这些被请求的 Chunk 后面
的 Chunk 的信息。在实际应用中,这些额外的信息在没有任何代价的情况下,避 免了客户
端和 Master 节点未来可能会发生的几次通讯。
2.5 Chunk 尺寸
Chunk 的大小是关键的设计参数之一。我们选择了 64MB,这个尺寸远远大于一般文件系统
的 Block size。每个 Chunk 的副本都以普通 Linux 文件的形式保存在 Chunk 服务器上,只
有在需要的时候才扩大。惰性空间分配策略避免了因内部碎片造成 的空间浪费,内部碎片
或许是对选择这么大的 Chunk 尺寸最具争议一点。
选择较大的 Chunk 尺寸有几个重要的优点。首先,它减少了客户端和 Master 节点通讯的需
求,因为只需要一次和 Mater 节点的通信就可以 获取 Chunk 的位置信息,之后就可以对同
一个 Chunk 进行多次的读写操作。这种方式对降低我们的工作负载来说效果显著,因为我
们的应用程序通常是连续 读写大文件。即使是小规模的随机读取,采用较大的 Chunk 尺寸
也带来明显的好处,客户端可以轻松的缓存一个数 TB 的工作数据集所有的 Chunk 位置信
息。其次,采用较大的 Chunk 尺寸,客户端能够对一个块进行多次操作,这样就可以通过
与 Chunk 服务器保持较长时间的 TCP 连接来减少网络负载。第 三,选用较大的 Chunk 尺
寸减少了 Master 节点需要保存的元数据的数量。这就允许我们把元数据全部放在内存中,
在 2.6.1 节我们会讨论元数据全部 放在内存中带来的额外的好处。
另一方面,即使配合惰性空间分配,采用较大的 Chunk 尺寸也有其缺陷。小文件包含较少
的 Chunk,甚至只有一个 Chunk。当有许多的客户 端对同一个小文件进行多次的访问时,
存储这些 Chunk 的 Chunk 服务器就会变成热点。在实际应用中,由于我们的程序通常是连
续的读取包含多个 Chunk 的大文件,热点还不是主要的问题。
然而,当我们第一次把 GFS 用于批处理队列系统的时候,热点的问题还是产生了:一个可
执行文件在 GFS 上保存为 single-chunk 文件, 之后这个可执行文件在数百台机器上同时
启动。存放这个可执行文件的几个 Chunk 服务器被数百个客户端的并发请求访问导致系统
局部过载。我们通过使用更大 的复制参数来保存可执行文件,以及错开批处理队列系统程
序的启动时间的方法解决了这个问题。一个可能的长效解决方案是,在这种的情况下,允许
客户端从其它 客户端读取数据。
2.6 元数据
Master 服务器 (alex 注:注意逻辑的 Master 节点和物理的 Master 服务器的区别。后续
我们谈的是每个 Master 服务器的行为,如存储、内存等等,因此我们将全部使用物理名称)
存 储 3 种主要类型的元数据,包括:文件和 Chunk 的命名空间、文件和 Chunk 的对应关
系、每个 Chunk 副本的存放地点。所有的元数据都保存在 Master 服务器的内存中。前两
种类型的元数据(命名空间、文件和 Chunk 的对应关系)同时也会以记录变更日志的方式
记录在操作系统的系统日志文件 中,日志文件存储在本地磁盘上,同时日志会被复制到其
它的远程 Master 服务器上。采用保存变更日志的方式,我们能够简单可靠的更新 Master
服务器 的状态,并且不用担心 Master 服务器崩溃导致数据不一致的风险。Master 服务器
不会持久保存 Chunk 位置信息。Master 服务器在启动时,或 者有新的 Chunk 服务器加入
时,向各个 Chunk 服务器轮询它们所存储的 Chunk 的信息。
2.6.1 内存中的数据结构
因为元数据保存在内存中,所以 Master 服务器的操作速度非常快。并且,Master 服务器可
以在后台简单而高效的周期性扫描自己保存的全部 状态信息。这种周期性的状态扫描也用
于实现 Chunk 垃圾收集、在 Chunk 服务器失效的时重新复制数据、通过 Chunk 的迁移实
现跨 Chunk 服务器的 负载均衡以及磁盘使用状况统计等功能。4.3 和 4.4 章节将深入讨论
这些行为。
将元数据全部保存在内存中的方法有潜在问题:Chunk 的数量以及整个系统的承载能力都
受限于 Master 服务器所拥有的内存大小。但是在实际 应用中,这并不是一个严重的问题。
Master 服务器只需要不到 64 个字节的元数据就能够管理一个 64MB 的 Chunk。由于大多
数文件都包含多个 Chunk,因此绝大多数 Chunk 都是满的,除了文件的最后一个 Chunk
是部分填充的。同样的,每个文件的在命名空间中的数据大小通常在 64 字节以 下,因为
保存的文件名是用前缀压缩算法压缩过的。
即便是需要支持更大的文件系统,为 Master 服务器增加额外内存的费用是很少的,而通过
增加有限的费用,我们就能够把元数据全部保存在内存里,增强了系统的简洁性、可靠性、
高性能和灵活性。
2.6.2 Chunk 位置信息
Master 服务器并不保存持久化保存哪个 Chunk 服务器存有指定 Chunk 的副本的信息。Ma
ster 服务器只是在启动的时候轮询 Chunk 服 务器以获取这些信息。Master 服务器能够保
证它持有的信息始终是最新的,因为它控制了所有的 Chunk 位置的分配,而且通过周期性
的心跳信息监控 Chunk 服务器的状态。
最初设计时,我们试图把 Chunk 的位置信息持久的保存在 Master 服务器上,但是后来我们
发现在启动的时候轮询 Chunk 服务器,之后定期轮询 更新的方式更简单。这种设计简化了
在有 Chunk 服务器加入集群、离开集群、更名、失效、以及重启的时候,Master 服务器和
Chunk 服务器数据同步 的问题。在一个拥有数百台服务器的集群中,这类事件会频繁的发
生。
可以从另外一个角度去理解这个设计决策:只有 Chunk 服务器才能最终确定一个 Chunk 是
否在它的硬盘上。我们从没有考虑过在 Master 服务器 上维护一个这些信息的全局视图,
因为 Chunk 服务器的错误可能会导致 Chunk 自动消失(比如,硬盘损坏了或者无法访问了),
亦或者操作人员可能会重命 名一个 Chunk 服务器。
2.6.3 操作日志
操作日志包含了关键的元数据变更历史记录。这对 GFS 非常重要。这不仅仅是因为操作日
志是元数据唯一的持久化存储记录,它也作为判断同步操作顺序的逻辑时间基线(alex 注:
也就是通过逻辑日志的序号作为操作发生的逻辑时间,类似于事务系统中的 LSN)。文件
和 Chunk,连同它们的版本(参考 4.5 节),都由它们创建的逻辑时间唯一的、永久的标识。
操作日志非常重要,我们必须确保日志文件的完整,确保只有在元数据的变化被持久化后,
日志才对客户端是可见的。否则,即使 Chunk 本身没有出现任 何问题,我们仍有可能丢失
整个文件系统,或者丢失客户端最近的操作。所以,我们会把日志复制到多台远程机器,并
且只有把相应的日志记录写入到本地以及远程 机器的硬盘后,才会响应客户端的操作请求。
Master 服务器会收集多个日志记录后批量处理,以减少写入磁盘和复制对系统整体性能的
影响。
Master 服务器在灾难恢复时,通过重演操作日志把文件系统恢复到最近的状态。为了缩短
Master 启动的时间,我们必须使日志足够小 (alex 注:即重演系统操作的日志量尽量的少)。
Master 服务器在日志增长到一定量时对系统状态做一次 Checkpoint (alex 注:Checkpoint
是一种行为,一种对数据库状态作一次快照的行为),将所有的状态数据写入一个 Checkpoi
nt 文件 (alex 注:并删除之前的日志文件)。 在灾难恢复的时候,Master 服务器就通过从
磁盘上读取这个 Checkpoint 文件,以及重演 Checkpoint 之后的有限个日志文件就能够恢复
系统。Checkpoint 文件以压缩 B-树形势的数据结构存储,可以直接映射到内存,在用于命
名空间查询时无需额外的解析。这大大提高了恢复速度,增强了可用性。
由于创建一个 Checkpoint 文件需要一定的时间,所以 Master 服务器的内部状态被组织为
一种格式,这种格式要确保在 Checkpoint 过程中不会阻塞正在进行的修改操作。Master
服务器使用独立的线程切换到新的日志文件和创建新的 Checkpoint 文件。新的 Checkpoint
文件包括切换前所有的修改。对于一个包含数百万个文件的集群,创建一个 Checkpoint
文件需要 1 分钟左右的时间。创建完成后,Checkpoint 文件会被写入在本地和远程的硬盘
里。
Master 服务器恢复只需要最新的 Checkpoint 文件和后续的日志文件。旧的 Checkpoint 文
件和日志文件可以被删除,但是为了应对灾难性的故障(alex 注:catastrophes,数据备
份相关文档中经常会遇到这个词,表示一种超出预期范围的灾难性事件),我们通常会多
保存一些历史文件。Checkpoint 失败不会对正确性产生任何影响,因为恢复功能的代码可
以检测并跳过没有完成的 Checkpoint 文件。
2.7 一致性模型
GFS 支持一个宽松的一致性模型,这个模型能够很好的支撑我们的高度分布的应用,同时
还保持了相对简单且容易实现的优点。本节我们讨论 GFS 的一致 性的保障机制,以及对
应用程序的意义。我们也着重描述了 GFS 如何管理这些一致性保障机制,但是实现的细节
将在本论文的其它部分讨论。
2.7.1 GFS 一致性保障机制
文件命名空间的修改(例如,文件创建)是原子性的。它们仅由 Master 节点的控制:命名
空间锁提供了原子性和正确性(4.1 章)的保障;Master 节点的操作日志定义了这些操作在
全局的顺序(2.6.3 章)。
数据修改后文件 region(alex 注:region 这个词用中文非常难以表达,我认为应该是修改
操作所涉及的文件中的某个范围)的 状态取决于操作的类型、成功与否、以及是否同步修