首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >为什么pNFS现在比以往任何时候都更重要?NFS-SSD(以太网直连SSD)如何改变游戏规则

为什么pNFS现在比以往任何时候都更重要?NFS-SSD(以太网直连SSD)如何改变游戏规则

作者头像
Hammerspace
发布2025-07-27 12:45:40
发布2025-07-27 12:45:40
2090
举报
文章被收录于专栏:NFSNFS

背景:

2017年发布Linux 7.4以来就包含了对NFSv4.2的支持,2019年8月,随着RHEL 7.7和其他标准Linux发⾏版引入带有Flex Files的pNFS v4.2

Linux已是世界上部署量最多的服务器操作系统,包括:麒麟,欧拉,TencentOS, Alibaba Cloud Linux等等

现状 :

  • 急需通过统一命名空间,跨多云、多数据中心或本地存储系统提供一致的文件访问体验
  • 用户或应用无需关心数据的实际存储位置,可以无缝访问和管理‍
  • 高性能需求已成为主流(AI/ML/渲染/量化)‍
  • 世界正转向软件定义的商品化基础架构设施
  • Linux无处不在,其本身就是一个基于标准的开源高性能客户端(非私有第三方)

因此:

  • NFSv4.2使用pNFS和灵活文件布局已解决上述问题
  • NFSv4.2实现单一命名空间下跨存储孤岛、数据中心和云的文件访问‍
  • NFSv4.2无需安装私有客户端和管理工具即可实现并行文件系统架构‍
  • NFSv4.2实现避免重写应用程序即可使用对象存储

‍关于并行NFS和灵活文件布局类型(pNFS和Flex Files)

pNFS于2010年作为NFS v4.1中的可选功能引入,并在后来的RFC中进行了增强。pNFS定义了一种NFS架构,其中元数据和数据路径是分开的,一旦元数据服务器授予访问权限,客户端将获得并行直接与存储通信的能力。

为使pNFS更加开放,并为共享存储添加新功能,Hammerspace在2018年设计了Flex Files布局类型,如IETF RFC 8435所述。在Flex Files布局中,NFSv3或更高版本被用作存储协议。这意味着现在可以使用pNFS元数据服务器加上NFS存储或服务器的任意组合来创建高性能并行NAS系统。

NFS v4.2中的其他增强和修复包括:

  • 使用复合操作(与序列化)以及缓存和委托(包括客户端时间戳生成)消除过多的协议聊天,消除了前往服务器的需要。这些增强功能消除了80%的NFSv3的GETATTR流量(用于获取文件或目录的属性信息)
  • 客户端和服务器之间的多个并行网络连接,包括对RDMA的可选支持,以避免TCP堆栈性能限制‍
  • 能够使用条带或镜像同步写入多个存储节点,从不可靠的存储节点构建高度可靠、高可用的系统,并在多个后端NFS v3存储节点之间分发单个文件访问权限
  • 能够在访问数据时不间断地移动数据(类似vMotion)
  • 文件粒度访问和性能预测报告
  • 能够通过NFS提供SMB服务,通过NFS协议映射Active Directory主体和ACL。

还添加了早期NFS版本所不具备的一些常见本地文件系统功能:

  • 服务器端克隆和复制
  • 应用程序 I/O 建议
  • 稀疏文件和空间预留
  • 应用程序数据块支持
  • NFS标签
  • 布局增强

这些增强功能都很棒,但要利用它们不仅需要元数据服务器,还需要了解 pNFS和NFS v4.2客户端。值得庆幸的是,只有一个客户端很重要,那就是Linux自带的NFS客户端!Hammerspace首席技术官Trond Myklebust担任NFS客户端的Linux内核维护者超过20年。他与社区合作,确保在NFS新功能出现时为它们提供强大的支持。例如,自2017年发布RHEL 7.4版本以来,就已包含对NFSv4.2的支持。


回顾当前存储业界读取一个数据的“跳数”(hops)

DAS - SSD直连存储

RAID控制器一直是个瓶颈

DAS - NVMe直连存储

NVMe(Fusion-IO)的出现消灭了RAID控制器

DAS - NVMe遇上GPU Direct

NVIDIA引入GPU Direct后“跳数”降至1个,但在传统NAS中如何?

传统NAS (如:NetApp, Dell Powerscale/Isilon, Pure, Ceph)

传统NAS存储需要疯狂的9个“跳数”

次传统NAS (使用NVMEoF, 如:VAST, Weka)

为再次提升效率,业界引入NVMEoF,“跳数”从9个降至8个‍‍‍‍‍‍‍

Hyperscale NAS 架构(使用Linux原生NFSv4.2, 如:Hammerspace)

NFSv4.2没有瓶颈,实现元数据旁路后,不需要NVMEoF,“跳数”从9个降至4个 ‍

Hyperscale NAS 架构(使用Linux原生NFSv4.2, 启用Tier 0技术,如:Hammerspace)

比高速网络更好的唯一方法就是没有网络,1个“跳数” 使GPU直接访问存储

Hyperscale NAS (使用Linux原生NFSv4.2和NFS-eSSD)

元数据旁路后,再将文件偏移到块的映射下放至SSD,只剩一层映射。

设想一个新存储形态:搭载SOC,Linux NFS客户端使用原生纠删技术将数据写入大量SSD磁盘,最后该存储通过以太网接入。‍‍‍‍

‍‍


NFS-eSSD优势:

  1. 低延迟
  2. 功耗更低
  3. 降低运营(和资本)成本
  4. 较低的写入放大
  5. 在不牺牲性能下增加密度
  6. 更高接入存储密度
  7. 更好的可靠性、可用性和可服务性
  8. 更大的弹性扩展范围
    • 大规模(实现超大规模,上万个存储节点)
    • 小规模(办公/家用,配上USB-C接口即可,因为其速率已达10Gbps)

9. ‍实现计算存储

  • 在了解文件布局后,压缩,重复数据删除,加密,擦除编码,复制/克隆,过滤,搜索,映射等等这些功能都可以卸载到SSD。 ‍

为什么是现在?

  1. AI/ML/渲染/量化场景下对性能的极致追求
  2. 数据治理/云计算资源需要调度编排
  3. PCIe/以太网组合下可以轻松满足闪存性能
  4. 通过E1.S或其他形态展现(主要是密度和功耗)
  5. 64位处理器和IP网络普及
  6. 处理器性能密度完全胜任
  7. IPv6, RoCE
  8. 嵌入式Linux
  9. 高性能、轻量级文件系统(XFS)
  10. 高性能、轻量级NFS服务器(kNFSd)
  11. 业界标准化带有灵活文件(Flexible Files)的并行NFSv4.2出现
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 悍亩尔空间 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档