首页
学习
活动
专区
工具
TVP
发布

DPU

AI算力,网络,存储等加速, 卸载, 隔离, 欢迎对DPU/智能网卡/卸载/网络,存储加速/安全隔离等技术感兴趣的朋友加入DPU技术交流群
专栏作者
32
文章
17693
阅读量
20
订阅数
Nvidia DPU BlueField 软件概述_AI_卸载_降本增效_DPU时代_内核表示模型
随着摩尔定律的减弱,加速计算和人工智能是较经济实惠的方式实现数据中心能源效率所需的工具。 让我们一起跟随和了解 NVIDIA Grace CPU、NVIDIA L4 GPU 和 NVIDIA BlueField DPU 如何推动数据中心迈向更高效的未来。
ssbandjl
2023-12-30
4010
置顶
Nvidia_Mellanox_CX5和6DX系列网卡_RDMA_RoCE_无损和有损_DCQCN拥塞控制_动态连接等详解-一文入门RDMA和RoCE有损无损
随着互联网, 人工智能等兴起, 跨机通信对带宽和时延都提出了更高的要求, RDMA技术也不断迭代演进, 如: RoCE(RDMA融合以太网)协议, 从RoCEv1 -> RoCEv2, 以及IB协议, Mellanox的RDMA网卡cx4, cx5, cx6/cx6DX, cx7等, 本文主要基于CX5和CX6DX对RoCE技术进行简介, 一文入门RDMA和RoCE有损及无损关键技术
ssbandjl
2023-07-23
4.7K3
置顶
Linux源码分析-RDMA的通信连接管理CM模块
RDMA CM 是一种通信管理器,用于设置可靠、连接和不可靠的数据报数据传输。 它提供用于建立连接的 RDMA 传输中立接口。 API 概念基于套接字,但适用于基于队列对 (QP) 的语义:通信必须通过特定的 RDMA 设备进行,并且数据传输基于消息。 RDMA CM 可以控制 RDMA API 的 QP 和通信管理(连接建立/拆除)部分,或者仅控制通信管理部分。 它与 libibverbs 库定义的 verbs API 结合使用。 libibverbs 库提供了发送和接收数据所需的底层接口。 RDMA CM 可以异步或同步操作。 用户通过在特定调用中使用 rdma_cm 事件通道参数来控制操作模式。 如果提供了事件通道,rdma_cm 标识符将报告该通道上的事件数据(例如连接结果)。 如果未提供通道,则所选 rdma_cm 标识符的所有 rdma_cm 操作将被阻止,直到完成。 RDMA CM 为不同的 libibverbs 提供商提供了一个选项来宣传和使用特定于该提供商的各种 QP 配置选项。 此功能称为 ECE(增强连接建立)
ssbandjl
2024-04-27
820
Intel E810-iRDMA网卡-Linux内核驱动和用户态源码分析
用户空间直接访问 (UDA) 旨在以通用方式提供用户空间访问队列,但 E810 不支持此功能。 UDA 仅在内核中可用,并且仅限于 iWARP 连接设置和错误处理。 UDA 在用户空间中不可用
ssbandjl
2024-04-25
1990
RDMA-Linux-infiniband-RDMA子系统-源码分析-IB架构-IB设备初始化和注册-内核uverbs接口注册-GID缓存机制
该驱动程序通过 Linux 网络堆栈实现 InfiniBand RDMA 传输。 它使具有标准以太网适配器的系统能够与 RoCE 适配器或运行 RXE 驱动程序的另一个系统进行互操作。 有关 InfiniBand 和 RoCE 的文档可以从 www.infinibandta.org 和 www.openfabrics.org 下载。 (另请参见 siw,它是 iWARP 的类似软件驱动程序。)该驱动程序分为两层,一层与 Linux RDMA 堆栈接口,并实现内核或用户空间动词 API。 用户空间动词 API 需要一个名为 librxe 的支持库,该支持库由通用用户空间动词 API libibverbs 加载。 另一层与第 3 层的 Linux 网络堆栈接口。要配置和使用 soft-RoCE 驱动程序,请使用“配置 Soft-RoCE (RXE)”部分下的以下 wiki 页面:https://github.com/linux-rdma/rdma-core/blob/master/Documentation/rxe.md
ssbandjl
2024-04-19
1340
Linux RDMA RXE/SoftRoCE 软件RoCE-内核驱动源码
rdma_rxe 内核模块提供 RoCEv2 协议的软件实现。 RoCEv2 协议是存在于 UDP/IPv4 或 UDP/IPv6 之上的 RDMA 传输协议。 InfiniBand (IB) 基本传输标头 (BTH) 封装在 UDP 数据包中。 创建 RXE 实例后,通过 RXE 进行通信与通过任何 OFED 兼容的 Infiniband HCA 进行通信相同,尽管在某些情况下会涉及寻址问题。 特别是,虽然 GRH 标头的使用在 IB 子网中是可选的,但对于 RoCE 来说是强制性的。 基于 IB 动词编写的动词应用程序应该可以无缝工作,但它们需要在创建地址向量时提供 GRH 信息。 修改库和驱动程序以提供硬件所需的从 GID 到 MAC 地址的映射
ssbandjl
2024-04-10
2230
NvidiaMellanoxOFED驱动解决方案
HowTo Install MLNX_OFED Driver 如何安装MLNX_OFED驱动
ssbandjl
2024-04-04
1700
Nvidia DOCA - 芯片上的数据中心软硬件架构简介
DOCA: Data Center-on-a-Chip Architecture, 芯片上的数据中心架构
ssbandjl
2024-03-31
2160
RDMA_verbs详解-ibv_reg_mr(注册内存)源码分析
博客: https://cloud.tencent.com/developer/user/5060293/articles | https://logread.cn | https://blog.csdn.net/ssbandjl | https://www.zhihu.com/people/ssbandjl/posts
ssbandjl
2024-03-23
2620
DPDK巨页地址管理/Linux内核内存管理/内存映射/pagemap/rdma内存/注册
PBLE: Physical Buffer List Entry 物理缓冲区列表条目
ssbandjl
2024-03-12
1980
RDMA_verbs编程详解-cm建连-rdma_connect
【infiniband】 MAD、 uMAD、Verbs、RDMACM: https://blog.csdn.net/eidolon_foot/article/details/132840943
ssbandjl
2024-03-12
2420
RDMA_verbs详解-修改队列对属性(ibv_modify_qp)-ceph-ucx-nccl-intel rdma驱动源码解析
QP上可变化的属性描述了QP的发送和接收属性。 在 UC 和 RC QP 中,这意味着将 QP 与远程 QP 连接。 在 Infiniband 中,应向子网管理员 (SA) 执行路径查询,以确定 QP 应配置哪些属性或作为最佳解决方案,使用通信管理器 (CM) 或通用 RDMA CM 代理 (CMA) 连接 QP。 然而,有些应用程序(如ceph)更喜欢自行连接 QP,并通过套接字交换数据来决定使用哪些 QP 属性。 在 RoCE 中,应在连接的 QP 的 QP 属性中配置 GRH,或在 UD QP 的地址句柄(Address Handle)中配置 GRH。 在 iWARP 中,应仅使用通用 RDMA CM 代理 (CMA) 连接 QP。 结构体: struct ibv_qp_attr 描述了队列对QP的属性:
ssbandjl
2024-02-24
2282
NVIDIA Eos 揭晓:全球十大超级计算机排名第9
NVIDIA 的突破性 DGX AI 超级计算机是全球企业的蓝图,旨在为 AI 创新的下一个前沿提供动力
ssbandjl
2024-02-16
3230
什么是超级网卡(SuperNIC)?
SuperNIC 是一种用于 AI 云数据中心的网络加速器,可在 GPU 服务器之间提供强大且无缝的连接
ssbandjl
2024-02-15
1540
RDMA_verbs编程详解-查询设备列表(ibv_get_device_list)和打开设备(ibv_open_device)
首先使用的就是查询设备列表和打开设备, 下文以ceph和mlx5用户态和内核态驱动为例, 详解该调用
ssbandjl
2024-02-13
2880
关于智能网卡, 您需要了解的相关的技术-DPU相关技术
网络接口卡 (NIC) 是现代高速网络系统的基本组件,支持 100 Gbps 的速度并提高可编程性。 将计算从服务器的 CPU 卸载到 NIC 可以释放大量服务器的 CPU 资源,这使得 NIC 成为提供有竞争力的云服务的关键。 因此,了解将网络应用程序卸载到 NIC 的性能优势和局限性至关重要。 在本文中,我们测量了来自全球最大 NIC 供应商之一的四种不同 NIC 的性能,支持 100 Gbps 和 200 Gbps。 我们表明,虽然当今的 NIC 可以轻松支持数百千兆位的吞吐量,但频繁执行 NIC 数据包分类器的更新操作(如网络地址转换器 (NAT) 和负载均衡器对每个传入连接所做的操作)会导致吞吐量急剧下降,高达 70 Gbps 或完全拒绝服务。 我们的结论是,所有测试的 NIC 都无法支持需要跟踪大量频繁到达的传入连接的高速网络应用程序。 此外,我们还展示了各种反直觉的性能假象,包括使用多个表对数据包流进行分类的性能影响
ssbandjl
2024-02-11
1780
Intel-Nvidia-mellanox网卡-PF_RING-零拷贝-网络-存储等技术汇总-拓宽技术视野-DPU技术群
PF_RING™ 是一个 Linux 内核模块和用户空间框架,允许您高速处理数据包,同时为数据包处理应用程序提供一致的 API, 基本上每个人每秒都必须处理许多数据包。 术语“许多many”根据您用于流量分析的硬件而变化。 它的范围可以从 1.2GHz ARM 上的 80k pkt/sec 到低端 2.5GHz Xeon 上每核心超过 20M pkt/sec。 PF_RING™ 不仅使您能够更快地捕获数据包,还可以更有效地捕获数据包,从而节省 CPU 周期, PF_RING 是一个高速数据包捕获库,可将商用 PC 转变为高效且廉价的网络测量盒,适用于数据包和主动流量分析和操作。 此外,PF_RING 开辟了全新的市场,因为它可以通过几行代码创建高效的应用程序,例如流量平衡器或数据包过滤器.
ssbandjl
2024-02-10
1930
Nvidia Mellanox CX4/4lx 适配器程序员参考手册 (PRM)-软件接口-HCA操作-中断-驱动流程-无状态卸载-2016
PRM是驱动程序开发所需的文档, 从历史上看,它仅在 NDA 下可用, 这对于开源网络来说是一件大事。 开放的 PRM 使独立开发人员可以为 ConnectX-4 适配器创建独立的驱动程序。 该驱动程序适用于该产品系列中的 1G/10G/25G/40G/50G/100G 卡
ssbandjl
2024-02-05
1560
RDMA之Partition Key(P_key) 分区键
有时,在 InfiniBand Fabric网络(即通过电缆物理连接到交换机和路由器的一组终端节点)内,需要在特定节点之间提供隔离并创建只有它们才能通信的“虚拟Fabric”。 在以太网中,这称为虚拟 LAN (VLAN),它定义了广播域。 但是,InfiniBand 不支持广播,因此它仅提供虚拟隔离。 这称为分区。 而且它比VLAN还要强大一点点
ssbandjl
2024-02-03
3000
Nvidia Mellanox MLX5驱动源码分析-DPU-BlueFiled3-算力加速
Kernel6.8: drivers/net/ethernet/mellanox/mlx5
ssbandjl
2024-02-01
4590
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档