首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

linux dma api

Linux DMA(Direct Memory Access)API 是一组用于在Linux内核中管理DMA传输的接口。DMA允许硬件设备直接与系统内存进行数据交换,而不需要CPU的干预,从而提高系统的整体性能。

基础概念

DMA控制器:负责管理DMA传输的硬件设备。 DMA缓冲区:用于DMA传输的内存区域。 DMA映射:将物理地址映射到内核虚拟地址的过程。

相关优势

  1. 性能提升:减少CPU参与数据传输的时间,提高系统效率。
  2. 降低功耗:减少CPU的活跃时间,有助于节能。
  3. 提高带宽利用率:设备可以直接访问内存,避免CPU成为瓶颈。

类型

  • 单次传输:一次性传输固定大小的数据。
  • 循环传输:重复传输相同的数据块。
  • 分散/聚集传输:将多个小数据块合并成一个大块进行传输,或反之。

应用场景

  • 网络设备:如网卡,用于高效处理大量数据包。
  • 存储设备:如硬盘控制器,加速文件读写操作。
  • 图形卡:GPU通过DMA与显存交换数据。

遇到的问题及解决方法

问题1:DMA映射失败

原因:可能是由于内存不足或权限问题导致的。

解决方法

代码语言:txt
复制
struct dma_chan *chan = dma_request_channel(mask, filter_fn, filter_param);
if (!chan) {
    printk(KERN_ERR "Failed to request DMA channel\n");
    return -ENODEV;
}

dma_addr_t dma_handle;
void *virt_addr = dma_alloc_coherent(chan->device->dev, size, &dma_handle, GFP_KERNEL);
if (!virt_addr) {
    printk(KERN_ERR "Failed to allocate DMA buffer\n");
    dma_release_channel(chan);
    return -ENOMEM;
}

问题2:DMA传输中断处理不当

原因:中断处理程序可能没有正确地释放资源或更新状态。

解决方法

代码语言:txt
复制
irqreturn_t dma_isr(int irq, void *dev_id) {
    struct dma_device *dev = dev_id;
    // 处理中断逻辑
    dma_ack_interrupt(dev);
    return IRQ_HANDLED;
}

int dma_setup_isr(struct dma_device *dev, int irq) {
    return request_irq(irq, dma_isr, IRQF_SHARED, dev_name(&dev->dev), dev);
}

示例代码

以下是一个简单的DMA传输示例:

代码语言:txt
复制
#include <linux/dmaengine.h>
#include <linux/dma-mapping.h>

struct dma_chan *chan;
dma_addr_t dma_src, dma_dst;
void *src, *dst;

int setup_dma(void) {
    chan = dma_request_channel(DMA_MEMCPY_MASK, NULL, NULL);
    if (!chan) {
        printk(KERN_ERR "Failed to request DMA channel\n");
        return -ENODEV;
    }

    src = kmalloc(BUFFER_SIZE, GFP_KERNEL);
    dst = kmalloc(BUFFER_SIZE, GFP_KERNEL);
    if (!src || !dst) {
        printk(KERN_ERR "Failed to allocate memory\n");
        dma_release_channel(chan);
        return -ENOMEM;
    }

    dma_src = dma_map_single(chan->device->dev, src, BUFFER_SIZE, DMA_TO_DEVICE);
    dma_dst = dma_map_single(chan->device->dev, dst, BUFFER_SIZE, DMA_FROM_DEVICE);

    struct dma_async_tx_descriptor *desc = dmaengine_prep_dma_memcpy(chan, dma_dst, dma_src, BUFFER_SIZE, DMA_CTRL_ACK | DMA_PREP_INTERRUPT);
    if (!desc) {
        printk(KERN_ERR "Failed to prepare DMA memcpy\n");
        dma_unmap_single(chan->device->dev, dma_src, BUFFER_SIZE, DMA_TO_DEVICE);
        dma_unmap_single(chan->device->dev, dma_dst, BUFFER_SIZE, DMA_FROM_DEVICE);
        kfree(src);
        kfree(dst);
        dma_release_channel(chan);
        return -EFAULT;
    }

    dmaengine_submit(desc);
    dma_async_issue_pending(chan);

    return 0;
}

通过以上代码,可以实现基本的DMA内存拷贝操作。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

宋宝华:那些年你误会的Linux DMA(关于Linux DMA ZONE和API最透彻的一篇)

创作目的 互联网、Linux内核书籍上充满了各种关于Linux DMA ZONE和dma_alloc_coherent、dma_map_single等的各种讲解,由于很多童鞋缺乏自身独立的思考,人云亦云...那么ISA上面假设有个网卡,要DMA,超过16MB以上的内存,它根本就访问不到。所以Linux内核干脆简单一点,把16MB砍一刀,这一刀以下的内存单独管理。...下面我们架空历史,假设有一个如下的芯片,里面有5个DMA,A、B、C都可以访问所有内存,D只能访问32MB,而E只能访问64MB,你觉得Linux的设计者会把DMA ZONE设置为多大?...所以dma_alloc_coherent()这个API只是一个前端的界面,它的内存究竟从哪里来,究竟要不要连续,带不带cache,都完全是因人而异的。 ?...它甚至让前面的dma_alloc_coherent等待这样的专门申请一致性DMA缓冲区的API都那么的多余,你也不需要凡事设计到DMA操作的时候,都进行内核的大量操作。CPU和外设的绝对界线被打开。

8.8K57
  • DMA方式

    1.DMA方式的特点 主存和DMA接口之间有一条直接数据通路。由于DMA方式传送数据不需要经过CPU,因此不必中断现行程序,I/O与主机并行工作,程序和传送并行工作。...2.DMA控制器的组成 对数据传送过程中进行控制的硬件称为DMA控制器(DMA接口)。...当I/O设备需要进行数据传送时,通过DMA控制器向CPU提出DMA传送请求,CPU响应之后让出系统总线,由DMA控制器接管总线进行数据传送。 1)接受外设发出的DMA请求,并向CPU发出总线请求。...DMA请求触发器:每当I/O设备准备好数据后给出一个控制信号,使DMA请求触发器置位。...由此可见,DMA控制器必须具有控制系统总线的能力。 3.DMA的传送方式 主存和DMA控制器之间有一条数据通路,因此主存和I/O设备之间交换信息时。不通过CPU。

    4K12

    32.Linux-2440下的DMA驱动(详解)

    DMA中断 1.1在linux中,分配释放DMA缓冲区,只能使用以下几个函数 1)  /*该函数只禁止cache缓冲,保持写缓冲区,也就是对注册的物理区写入数据,也会更新到对应的虚拟缓存区上*/ void...和DMASKTRIGn[1]=1才有效,DMA传输时,该位自动清0 1.3接下来就开始讲linux注册DMA中断 首先,DMA的每个通道只能有一个源- >目的,所以输入命令 cat /proc/interrupts...,找到DMA3中断未被使用 所以在linux中使用: request_irq(IRQ_DMA3, s3c_dma_irq, NULL, "s3c_dma", 1);// s3c_dma_irq:中断服务函数...,还是直接两个地址之间的拷贝 -> 2.2)若是DMA启动,则设置DMA的相关硬件,并启动DMA传输 2.1 所以,驱动代码如下所示: #include linux/module.h> #include...linux/kernel.h> #include linux/fs.h> #include linux/init.h> #include linux/delay.h> #include linux

    3.9K90

    什么是DMA?DMA究竟有多快!

    直接内存访问(Direct Memory Access,DMA):在计算机体系结构中,DMA 是一种数据传输方式,允许外部设备直接访问计算机的内存,而无需通过中央处理单元(CPU)的干预。...那么,DMA究竟有多快呢? 实践出真知 恰好,最近有个多通道数据采集的项目,受限于通道数多、分辨率高,而系统带宽有限,为了尽可能充分利用有限带宽,就得想办法优化时序,把时间都留给数据采集和传输。...优化方向就是DMA。 硬件链路是ADC通过SPI接口将数据发送给STM32单片机,单片机再将数据发送到上位机。 咱们的目标就是优化SPI这边,先看普通采集模式。...再看下,开启DMA之后的效果。SPI可以连续工作,时钟速率稳定在20MHz,高效工作。 这就是DMA的强大之处! 问题来了,为什么上图中的波形,有这么大的震荡呢?

    87610

    LINUX网络子系统中DMA机制的实现

    我们先从计算机组成原理的层面介绍DMA,再简单介绍Linux网络子系统的DMA机制是如何的实现的。 一、计算机组成原理中的DMA 以往的I/O设备和主存交换信息都要经过CPU的操作。...图1 上周分享“图1”时,刘老师说在DMA方式下, DMA控制器(即DMA接口)也是需要和CPU交流的,但是图中没有显示DMA控制器与CPU交流信息。...总之,在同样的时间内,DMA方式下CPU执行现行程序的时间最长,即CPU的效率最高。 二、Linux网络子系统中DMA机制的实现 1..../include/linux/dma-mapping.h /* * Set both the DMA mask and the coherent DMA mask to the same thing...* Note that we don't check the return value from dma_set_coherent_mask() * as the DMA API guarantees

    5.3K62

    DMA技术原理

    05 STM32少个DMA资源? 对于大容量的STM32芯片有2个DMA控制器,DMA1有7个通道,DMA2有5个通道。每个通道都可以配置一些外设的地址。...在这里插入图片描述 有DMA传输: 有DMA的话, DMA传输时外设对DMA控制器发出请求。 DMA控制器收到请求,触发DMA工作。...07 DMA传输方式 方法1:DMA_Mode_Normal,正常模式 当一次DMA数据传输完后,停止DMA传送 ,也就是只传输一次。...当设置了DMA_CCRx寄存器中的MEM2MEM位之后,在软件设置了DMA_CCRx寄存器中的EN位启动DMA通道时,DMA传输将马上开始。当DMA_CNDTRx寄存器变为0时,DMA传输结束。...17 DMA中断标志清除寄存器 (DMA_IFCR) DMA_IFCR 的各位就是用来清除 DMA_ISR 的对应位的,通过写 0 清除。

    3.1K31

    傻傻分不清楚的MDMA, DMA1,DMA2, DMA2D,BDMA?

    如SDRAM, QSPI,SPI等,H743里面DMA比较多,也较复杂,有DMA2D,MDMA, BDMA,DMA1,DMA2等等,使用时候注意区分。 MDMA 先来看看MDMA的框图概览 ?...DMA H743有两个DMA,分别为DMA1和DMA2, ? ? ?...像ADC,UART,SPI,SD卡等外设都支持DMA传输和操作,都有相应例程,比如我在SPI和另一个芯片通信就使用DMA2来传输。 ? ?...DMA的知识和篇章在参考手册中有很多介绍需要详细阅读和参考,结合例程。 DMA2D DMA2D是专门用于图像处理加速的DMA,我们在做屏的驱动时候可以充分考虑使用。 ?...手册中有几十页都是来讲DMA2D的,这个功能还是很好的,如果你使用H743做屏幕类相关产品,这个要用起来。例如我在移植emWIN作为图形界面时候驱动就使用了DMA2D. ? ?

    2.7K20

    IOMMU(四)-dma remapping

    惠伟:IOMMU(三)-初始化​zhuanlan.zhihu.com DMA remapping就是在DMA的过程中IOMMU进行了一次转换,MMU把CPU的虚拟地址(va)转换成物理地址(pa),IOMMU...的作用就是把DMA的虚拟地址(iova)转换成物理地址(pa),MMU转换时用到了pagetable,IOMMU转换也要用到io pagetable,两者都是软件负责创建pagetable,硬件负责转换...IOMMU的作用就是限制DMA可操作的物理内存范围,当一个PCI设备passthrough给虚拟机后,PCI设备DMA的目的地址是虚拟机指定的,必须要有IOMMU限制这个PCI设备只能操作虚拟机用到的物理内存...DMA类型 Requests without address-space-identifier DMA中只带了source-id,也就是PCI设备的bus/dev/funtion。...passthrough translation 跳过转换,DMA的iova就是pa。 IOMMU工作模式 intel vt-d iommu可以工作于legacy和scale模式。

    2.5K31

    5、DMA 技术

    DMA 技术: DMA 技术,也就是直接内存访问(Direct Memory Access) 技术。...DMA 技术:在进行 I/O 设备和内存的数据传输的时候,数据搬运的工作全部交给 DMA 控制器, 而 CPU 不再参与任何与数据搬运相关的事情,这样 CPU 就可以去处理别的事务。...执行其他任务; 3、DMA 进一步将 I/O 请求发送给磁盘; 4、磁盘收到 DMA 的 I/O 请求,把数据从磁盘读取到磁盘控制器的缓冲区中,当磁盘控制器的缓冲区被读满后, 向 DMA 发起中断信号...,告知自己缓冲区已满; 5、DMA 收到磁盘的信号,将磁盘控制器缓冲区中的数据拷贝到内核缓冲区中,此时不占用 CPU,CPU 可以执行其他任务; 6、当 DMA 读取了足够多的数据,就会发送中断信号给...CPU; 7、CPU 收到 DMA 的信号,知道数据已经准备好,于是将数据从内核拷贝到用户空间,系统调用返回;

    21310

    ZYNQ中DMA与AXI4总线-DMA简介

    综上,在ZYNQ中DMA和AXI是不可分割的两者,所以介绍DMA也是必须的。...使用DMA时,CPU向DMA控制器发送一个存储器传输请求,这样当DMA控制器在传输的时候,CPU执行其他的操作,传输完成时DMA以中断的方式通知CPU。 DMA传输过程的示意图为: ?...图4‑35 DMA传输过程的示意图 DMA的传输过程为: 1、为了配置用DMA传输数据到存储器,处理器(Cortex-A9)发出一条指令。...而DMA就不同了,一般系统中的DMA都有突发(Burst)传输的能力,在这种模式下,DMA能一次传输几个甚至几十个字节的数据,所以使用DMA能使设备的吞吐能力大为增强。...DMAC为DMA控制器 DMA传送虽然脱离CPU的控制,但并不是说DMA传送不需要进行控制和管理。通常是采用DMA控制器来取代CPU,负责DMA传送的全过程控制。

    3K22

    Dynamic DMA mapping Guide

    另外一篇文档dma-api.txt给出了相关API的简明描述,有兴趣也可以看看那一篇,这两份文档在DMA API的描述方面是一致的。 二、从CPU角度看到的地址和从DMA控制器看到的地址有什么不同?...根据上面的描述我们可以得出这样的结论:Linux可以使用动态DMA 映射(dynamic DMA mapping)的方法,当然,这需要一些来自驱动的协助。...对于驱动工程师而言,你应该使用通用的DMA API(例如dma_map_*() 接口函数),而不是和特定总线相关的API(例如pci_map_*() 接口函数)。...驱动想要使用DMA mapping framework的API,需要首先包含相关头文件: #include linux/dma-mapping.h> 这个头文件中定义了dma_addr_t这种数据类型...十一、平台移植需要注意的问题 如果你仅仅是驱动工程师,并不负责将linux迁移到某个cpu arch上去,那么后面的内容其实你可以忽略掉了。

    2.3K21

    DMA与零拷贝

    DMA 参与下的数据四次拷贝 DMA 技术很容易理解,本质上,DMA 技术就是我们在主板上放一块独立的芯片。...这意味着此优化取决于 Linux 系统的物理网卡是否支持(Linux 在内核 2.4 版本里引入了 DMA 的 scatter/gather -- 分散/收集功能,只要确保 Linux 版本高于 2.4...另一方面,目前 Linux 上的异步 IO 库,其依赖于文件使用 O_DIRECT 模式打开,它们通常一起配合使用。 如何使用 Direct I/O?...Linux 的零拷贝技术有多种实现策略,但根据策略可以分为如下几种类型: 减少甚至避免用户空间和内核空间之间的数据拷贝:在一些场景下,用户进程在数据传输过程中并不需要对数据进行访问和处理,那么数据在 Linux...这一类实现一般是是通过增加新的系统调用来完成的,比如 Linux 中的 mmap(),sendfile() 以及 splice() 等。

    2.4K22

    IOMMU(四)-dma remapping

    DMA remapping就是在DMA的过程中IOMMU进行了一次转换,MMU把CPU的虚拟地址(va)转换成物理地址(pa),IOMMU的作用就是把DMA的虚拟地址(iova)转换成物理地址(pa),...IOMMU的作用就是限制DMA可操作的物理内存范围,当一个PCI设备passthrough给虚拟机后,PCI设备DMA的目的地址是虚拟机指定的,必须要有IOMMU限制这个PCI设备只能操作虚拟机用到的物理内存...DMA类型 Requests without address-space-identifier DMA中只带了source-id,也就是PCI设备的bus/dev/funtion。...Requests with address-space-identifier DMA中除了source-id还有PASID,而这个PASID来自于PCIE config space中的PASID Capability...passthrough translation 跳过转换,DMA的iova就是pa。 IOMMU工作模式 intel vt-d iommu可以工作于legacy和scale模式。

    2.6K11

    动态 DMA 映射指南-地址类型差异-DMA寻址能力-内核驱动-一致内存DMA-流式DMA-错误处理-平台兼容等

    有关 API 的简要说明,请参阅DMA-API.txt。 CPU 和 DMA 地址 DMA API 涉及到的地址有好几种,了解差异很重要。 内核通常使用虚拟地址。...为了使 Linux 能够使用动态 DMA 映射,它需要驱动程序的一些帮助,即它必须考虑到 DMA 地址应该仅在实际使用时进行映射,并在 DMA 传输后取消映射。...当然,即使在不存在此类硬件的平台上,以下 API 也可以工作。 请注意,DMA API 可与独立于底层微处理器架构的任何总线配合使用。...您应该使用 DMA API 而不是特定于总线的 DMA API,即使用 dma_map*() 接口而不是 pci_map*() 接口。...首先,确保引入dma-mapping.h头文件 #include linux/dma-mapping.h> 在您的驱动程序中,以上头文件提供了 dma_addr_t 的定义。

    1.1K10

    扒开DMA映射的内裤

    一致性DMA映射 dma_addr_t dma_handle; cpu_addr = dma_alloc_coherent(dev, size, &dma_handle, gfp); 这个函数返回两个值...另外这个函数会调用alloc_page()来分配物理页面,所以不要在中断上下文中使用该API 其实现流程如下:dma_alloc_coherent dma_alloc_attrs ops->alloc...__dma_alloc static void *__dma_alloc(struct device *dev, size_t size, dma_addr_t *dma_handle, gfp_t...或者swiotlb申请内存 至此,我们知道dma_alloc_coherent只是申请一致性dma内存的前端api,至于从哪里来,是否连续,带不带cache,完全由后端决定。...比如DMA传输完成之后,CPU去把这个DMA buffer的数据取过来,这时候cache关闭的,CPU去读写就变得很慢。 这里介绍个即可以保证DMA传输的一致性,又能提高性能的方法:流式DMA映射。

    5.3K32
    领券