
ONNXRUNTIME1.13
ONNXRUNTIME是主流的深度学习部署框架之一,支持ONNX格式模型在CPU、GPU、ARM等不同硬件平台上加速推理,支持C++、Python、Java、C#、JS等不同语言SDK。C++版本安装包下载如下:

不同版本的ONNXRUNTIME安装文件下载地址:
https://github.com/microsoft/onnxruntime/tags框架主页:
https://onnxruntime.ai/推理流程与API接口
常用组件与推理流程支持:

Python SDK API支持:

C++ SDK API支持:

ONNXRUNTIME推理演示
YOLOv8 对象检测 C++

YOLOv8实例分割模型 C++ 推理:

UNet语义分割模型 C++ 推理:

Mask-RCNN实例分割模型 C++ 推理:

YOLOv8姿态评估模型 C++ 推理:


人脸关键点检测模型 C++ 推理:

人脸关键点检测模型 Python SDK 推理:

学会用C++部署YOLOv5与YOLOv8对象检测,实例分割,姿态评估模型,TorchVision框架下支持的Faster-RCNN,RetinaNet对象检测、MaskRCNN实例分割、Deeplabv3 语义分割模型等主流深度学习模型导出ONNX与C++推理部署,轻松解决Torchvision框架下模型训练到部署落地难题。
整个视频课程通过案例代码实战驱动,手把手系统化教学,帮助大家掌握ONNXRUNTIME API2 C++开发的各种技巧,学会图像分类、对象检测、语义分割、实例分割、pytorch自定义模型部署等ONNXRUNTIME C++版本的模型推理与解析技巧,课程思维导图如下:
