前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Visual Studio 2017 配置OpenVINO开发环境

Visual Studio 2017 配置OpenVINO开发环境

原创
作者头像
superhua
发布2019-11-20 12:23:19
2K0
发布2019-11-20 12:23:19
举报
文章被收录于专栏:CNN

1 下载

前往【OpenVINO官方下载地址】,进入下载页面:

openvino下载页面
openvino下载页面

选择windows,登录intel账户后,跳转下载页面,选择Full Package按钮

下载安装包
下载安装包

2 解压

从第1小节中下载得到文件w_openvino_toolkit_p_2019.3.379.exe,其实是一个压缩包,双击自动解压。
解压
解压

选择解压路径,我这边选择:E:\OpenVINO

选择安装路径
选择安装路径

后续选择Next即可,安装完成后,在E:\OpenVINO目录下有两个文件夹,如下所示:

OpenVINO
OpenVINO

3 Visual Studio 2017中配置OpenVINO

注意:这里只考虑使用CPU运算库,不考虑GPU和其他设备。

3.1 创建工程

在VS2017 中创建一个项目,命名为VINO。

3.2 include目录

首先选中VINO工程,然后点击属性按钮,如下图:

进入属性界面
进入属性界面

点开后,选中VC++目录,选中包含目录,Debug模式和Release模式的include都一样,即在包含目录中添加include地址:E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\include,如下图所示:

include设置
include设置

3.3 设置库目录和库

3.3.1 库目录

同样在VC++目录中,选择库目录,Debug模式和Release目录分别选择目录E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\lib\intel64下的DebugRelease子目录,以及目录E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\samples\intel64下的DebugRelease子目录,如下图所示:

库目录
库目录

Release模式如下:

Release模式配置
Release模式配置

3.3.2 库名称

点击链接器 > 输入 > 附加依赖项目,Release模式下添加inference_engine.libcpu_extension.lib,如下图:

Release
Release

Debug模式下添加inference_engined.libcpu_extensiond.lib,如下图:

在这里插入图片描述
在这里插入图片描述

4 结束

环境以及配置好了,接下来就是开始写代码,下一章介绍如何将Tensorflow模型转为OpenVINO能识别的模型,并运行。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 下载
  • 2 解压
  • 3 Visual Studio 2017中配置OpenVINO
    • 3.1 创建工程
      • 3.2 include目录
        • 3.3 设置库目录和库
          • 3.3.1 库目录
          • 3.3.2 库名称
      • 4 结束
      相关产品与服务
      GPU 云服务器
      GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于生成式AI,自动驾驶,深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档