前往【OpenVINO官方下载地址】,进入下载页面:
选择windows
,登录intel账户后,跳转下载页面,选择Full Package按钮
:
选择解压路径,我这边选择:E:\OpenVINO
后续选择Next
即可,安装完成后,在E:\OpenVINO
目录下有两个文件夹,如下所示:
注意:这里只考虑使用CPU运算库,不考虑GPU和其他设备。
在VS2017 中创建一个项目,命名为VINO。
首先选中VINO
工程,然后点击属性按钮,如下图:
点开后,选中VC++目录
,选中包含目录
,Debug模式和Release模式的include都一样,即在包含目录中添加include地址:E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\include
,如下图所示:
同样在VC++目录
中,选择库目录,Debug
模式和Release
目录分别选择目录E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\lib\intel64
下的Debug
和Release
子目录,以及目录E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\samples\intel64
下的Debug
和Release
子目录,如下图所示:
Release
模式如下:
点击链接器
> 输入
> 附加依赖项目
,Release模式下添加inference_engine.lib
和cpu_extension.lib
,如下图:
Debug
模式下添加inference_engined.lib
和cpu_extensiond.lib
,如下图:
环境以及配置好了,接下来就是开始写代码,下一章介绍如何将Tensorflow模型转为OpenVINO能识别的模型,并运行。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。