有人在Nvidia Jetson产品上使用过Tensorflow Lite吗?我想使用我的Jetson Nano进行推理,并希望使用GPU与tf-lite进行推理。
令人困惑的是,there does not seem to be a Python API for creating a GPU Delegate in tf-lite。
这有明确的原因吗?
是否可以选择使用完整的Tensorflow库(我不希望使用Nvidia TensorRT引擎)?
发布于 2020-04-21 16:57:29
是的,我以前也尝试过在Jetson Nano上使用tf lite。
你可以参考我上一篇关于媒体的文章(PS:很抱歉这篇文章是用中文写的。)
本文是关于如何在Jetson Nano上设置TF Lite环境的
通知:
您应该根据自己的环境更改以下命令。
pip3 install https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp36-cp36m-linux_aarch64.whl
发布于 2021-02-04 00:24:59
如果你对使用C++推理感兴趣,你可以在你的Jetson设备上编译TFlite 2.4.1,就像我在Xavier NX上所做的那样:
$ sudo apt-get install cmake curl
$ wget -O tensorflow.zip https://github.com/tensorflow/tensorflow/archive/v2.4.1.zip
$ unzip tensorflow.zip
$ mv tensorflow-2.4.1 tensorflow
$ cd tensorflow
$ ./tensorflow/lite/tools/make/download_dependencies.sh
$ ./tensorflow/lite/tools/make/build_aarch64_lib.sh
之后,您还必须安装TF lite平面缓冲区,如下所示:
$ cd ./tensorflow/tensorflow/lite/tools/make/downloads/flatbuffers
$ mkdir build && cd build
$ cmake ..
$ make -j
$ sudo make install
$ sudo ldconfig
然后你就可以在这里找到tensorflow/tensorflow/lite/tools/make/gen/linux_aarch64/libtensorflow-lite.a
库了
您可以像这样构建您的推理应用程序
gcc -llibtensorflow-lite.a -ledgetpu main.cpp
您还需要安装Coral.ai上所示的libedgetpu.so
最佳亚历山大
https://stackoverflow.com/questions/60871843
复制相似问题