前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >onnxruntime-gpu 预热速度优化

onnxruntime-gpu 预热速度优化

作者头像
为为为什么
发布2024-04-23 09:54:33
1.2K0
发布2024-04-23 09:54:33
举报
文章被收录于专栏:又见苍岚

onnxruntime-gpu 在程序启动后第一次推断会消耗较大的系统资源,并且耗时更久,本文记录优化方法。

问题描述

在 Python 下 onnxruntime-gpu 加载 onnx 模型后,创建 seddion 进行数据推断,在第一次执行时会比之后执行耗时更久,需要资源更多。

代码语言:text
复制
session = onnxruntime.InferenceSession(str(model_path),  providers=[
                "CUDAExecutionProvider",
                "CPUExecutionProvider"
            ])
session.run(None, inputs)

解决方案

onnxruntime 的官方文档中有一些关于 Provider 的配置项说明:NVIDIA - CUDA | onnxruntime

其中 https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#cudnn_conv_algo_search

cudnn_conv_algo_search

The type of search done for cuDNN convolution algorithms.

Value

Description

EXHAUSTIVE (0)

expensive exhaustive benchmarking using cudnnFindConvolutionForwardAlgorithmEx

HEURISTIC (1)

lightweight heuristic based search using cudnnGetConvolutionForwardAlgorithm_v7

DEFAULT (2)

default algorithm using CUDNN_CONVOLUTION_FWD_ALGO_IMPLICIT_PRECOMP_GEMM

描述了Onnx 优化卷积操作的一个初始化搜索操作,在卷积多,而且 Onnx 需要接受多种可变尺寸输入时耗时严重,该选项 默认为 EXHAUSTIVE, 就是最耗时的那种。

因此如果遇到上述问题可以考虑尝试将该选项改为 DEFAULT

代码语言:text
复制
session = onnxruntime.InferenceSession(str(model_path), opts, providers=[
    ("CUDAExecutionProvider", {"cudnn_conv_algo_search": "DEFAULT"}),
    "CPUExecutionProvider"
])

该选项优化在 Linux 下收益不太大,在 Windows 下可以将初始化预热时间从 500s 缩短到 70s。

其他性能调优

max_workspace

ORT 会使用 CuDNN 库来进行卷积计算,第一步是根据输入的 input shape, filter shape … 来决定使用哪一个卷积算法更好

需要预先分配 workspace,如果 workspace 不够大,有可能还执行不了最优的卷积算法

因此会想让 workspace 尽可能大,从而选择性能较好的卷积算法

1.14 以前的版本 cudnn_conv_use_max_workspace 这个 flag 默认是 0,意味着只会分配 32MB 出来,1.14 之后的版本默认是设置为 1,保证选择到最优的卷积算法,但有可能造成 peak memory usage 提高

官方说法是,fp16 模型,cudnn_conv_use_max_workspace 设置为 1 很重要,floatanddouble 就不一定

需要改的话:

代码语言:text
复制
providers = [("CUDAExecutionProvider", {"cudnn_conv_use_max_workspace": '1'})]
io_binding

可以减少一些数据拷贝(有时是设备间)的耗时。

如果要用这个,需要把 InferenceSession.run() 替换成 InferenceSession.run_with_iobinding()

推理时:

代码语言:text
复制
session.run_with_iobinding(binding)

在此之前需要创建 binding:

代码语言:text
复制
binding = session.io_binding()

把你需要的输入输出绑到 binding 上:

代码语言:text
复制
# 输入 X 来自 numpy array
io_binding.bind_cpu_input('X', X)

# 输入 X 来自 torch tensor
X_tensor = X.contiguous()
binding.bind_input(
    name='X',
    device_type='cuda',
    device_id=0,
    element_type=np.float32,
    shape=tuple(x_tensor.shape),
    buffer_ptr=x_tensor.data_ptr(),
)

# 让输出直接输出在一个 torch tensor 上
np_type = np.float32
DEVICE_NAME = 'cuda' if torch.cuda.is_available() else 'cpu'
DEVICE_INDEX = 0     # Replace this with the index of the device you want to run on
z_tensor = torch.empty(x_tensor.shape, dtype=torch_type, device=DEVICE).contiguous()
binding.bind_output(
    name='z',
    device_type=DEVICE_NAME,
    device_id=DEVICE_INDEX,
    element_type=np_type,
    shape=tuple(z_tensor.shape),
    buffer_ptr=z_tensor.data_ptr(),
)

# 让输出直接输出在 numpy array 上
binding.bind_output(

)
Convolution Input Padding

卷积被转换成大矩阵乘法时,可以选择 N, C, D, 1 or N, C, 1, D 两种 pad 方式,结果相同,但由于会选择不同的卷积算法,导致性能可能不太一样。

特别是像 A100 这种显卡。

设置方式:

代码语言:text
复制
providers = [("CUDAExecutionProvider", {"cudnn_conv1d_pad_to_nc1d": '1'})]

可以设置 0 和设置 1 都尝试一下,看看哪个更快。

参考资料

文章链接:

https://cloud.tencent.com/developer/article/2411347

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-4-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 问题描述
  • 解决方案
  • cudnn_conv_algo_search
  • 其他性能调优
    • max_workspace
      • io_binding
        • Convolution Input Padding
        • 参考资料
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档