项目地址:
https://github.com/dusty-nv/jetson-inference/blob/master/docs/posenet.md 本教程使用平台:Jetson Nano, Jetpack 4.6
安装Jetson Inference
依次运行以下命令:
$ sudo apt-get update$ sudo apt-get install git cmake libpython3-dev python3-numpy$ git clone --recursive https://github.com/dusty-nv/jetson-inference$ cd jetson-inference$ mkdir build$ cd build$ cmake ../
在这个步骤会执行 jetson-inference/tools 下的 download-models.sh 与install-pythrch.sh 两个脚本,分别为这个项目执行以下两个动作:
1.download-models.sh
在此可以下载实验所需要的神经网络的结构文件、预训练模型等数据,包括图像分类、物件检测、语义分割等不同应用的材料。由于这些神经网络与预训练模型文件,全部存放在国外的网站上,在国内直接下载会需要耗费相当多的时间。
在此列表中找到 "Pose Estimation - all models" ,按空格键勾选,然后回车进行安装。
2. install-pythrch.sh
此脚本将会安装 pytorch 训练框架,因为本教程不涉及训练部分,所以可以不勾选直接回车跳过安装。如果后续需要,可以手动执行此脚本。
继续执行以下命令完成安装
$ make -j$(nproc)$ sudo make install$ sudo ldconfig
使用PoseNet
导航到示例目录:
cd jetson-inference/python/examples
PoseNet 有以下预训练模型,这在先前的步骤中已经安装好了。
我们可以使用 --network 参数来指定使用的模型,如果未指定使用哪个模型,默认会使用 Pose-ResNet18-Body 。
使用视频源
posenet.py 可以通过传入视频文件的路径来进行检测。
$ ./posenet.py [输入路径]
# 例$ ./posenet.py /home/nvidia/example_video/202202102358.mp4
导出检测视频。添加 --headless 参数可以设置不显示,以提高性能。
$ ./posenet.py [输入路径] [输出路径] --headless
# 例$ ./posenet.py /home/nvidia/example_video/202202102358.mp4 /home/nvidia/densenet121-example.mp4 --network=densenet121-body --headless
(左右滑动可以看到完整代码)
用ResNet18模型跑的Demo:
用DenseNet121模型跑的Demo:
本教程转自:
https://www.cnblogs.com/chenjambo/articles/run_posenet_on_nvidia_jetson.html
更多:
使用 NVIDIA Fleet Command 在边缘部署和管理应用程序
讲座预告: