背景:
2017年发布Linux 7.4以来就包含了对NFSv4.2的支持,2019年8月,随着RHEL 7.7和其他标准Linux发⾏版引入带有Flex Files的pNFS v4.2
Linux已是世界上部署量最多的服务器操作系统,包括:麒麟,欧拉,TencentOS, Alibaba Cloud Linux等等
现状 :
因此:
关于并行NFS和灵活文件布局类型(pNFS和Flex Files)
pNFS于2010年作为NFS v4.1中的可选功能引入,并在后来的RFC中进行了增强。pNFS定义了一种NFS架构,其中元数据和数据路径是分开的,一旦元数据服务器授予访问权限,客户端将获得并行直接与存储通信的能力。
为使pNFS更加开放,并为共享存储添加新功能,Hammerspace在2018年设计了Flex Files布局类型,如IETF RFC 8435所述。在Flex Files布局中,NFSv3或更高版本被用作存储协议。这意味着现在可以使用pNFS元数据服务器加上NFS存储或服务器的任意组合来创建高性能并行NAS系统。
NFS v4.2中的其他增强和修复包括:
还添加了早期NFS版本所不具备的一些常见本地文件系统功能:
这些增强功能都很棒,但要利用它们不仅需要元数据服务器,还需要了解 pNFS和NFS v4.2客户端。值得庆幸的是,只有一个客户端很重要,那就是Linux自带的NFS客户端!Hammerspace首席技术官Trond Myklebust担任NFS客户端的Linux内核维护者超过20年。他与社区合作,确保在NFS新功能出现时为它们提供强大的支持。例如,自2017年发布RHEL 7.4版本以来,就已包含对NFSv4.2的支持。
回顾当前存储业界读取一个数据的“跳数”(hops)
DAS - SSD直连存储
RAID控制器一直是个瓶颈
DAS - NVMe直连存储
NVMe(Fusion-IO)的出现消灭了RAID控制器
DAS - NVMe遇上GPU Direct
NVIDIA引入GPU Direct后“跳数”降至1个,但在传统NAS中如何?
传统NAS (如:NetApp, Dell Powerscale/Isilon, Pure, Ceph)
传统NAS存储需要疯狂的9个“跳数”
次传统NAS (使用NVMEoF, 如:VAST, Weka)
为再次提升效率,业界引入NVMEoF,“跳数”从9个降至8个
Hyperscale NAS 架构(使用Linux原生NFSv4.2, 如:Hammerspace)
NFSv4.2没有瓶颈,实现元数据旁路后,不需要NVMEoF,“跳数”从9个降至4个
Hyperscale NAS 架构(使用Linux原生NFSv4.2, 启用Tier 0技术,如:Hammerspace)
比高速网络更好的唯一方法就是没有网络,1个“跳数” 使GPU直接访问存储
Hyperscale NAS (使用Linux原生NFSv4.2和NFS-eSSD)
元数据旁路后,再将文件偏移到块的映射下放至SSD,只剩一层映射。
设想一个新存储形态:搭载SOC,Linux NFS客户端使用原生纠删技术将数据写入大量SSD磁盘,最后该存储通过以太网接入。
NFS-eSSD优势:
9. 实现计算存储
为什么是现在?