MyFPGA Forum

 找回密码
 注册
搜索
查看: 4206|回复: 2
打印 上一主题 下一主题

在Ubuntu 18.04上部署Intel OpenVINO Toolkit并使用CPU与iGPU运行官方...

[复制链接]
跳转到指定楼层
1#
发表于 2020-6-19 11:06:01 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 Nicole_Terasic 于 2020-6-19 11:20 编辑

在Ubuntu 18.04上部署Intel OpenVINO Toolkit并使用CPU与iGPU运行官方人脸识别Demo

        测试平台软件版本:
  • Intel OpenVINO Version 2019_R1
  • Ubuntu 18.04.2


        测试平台硬件信息:
惠普 暗影精灵4 ->
  • Intel Core i7-8750H 6c12t
  • Nvidia GTX 1050Ti (未启用)
  • DDR4 32G 双通道
  • NVME 512G


第一步: 下载并安装 OpenVINO Toolkit ->
        首先, 我们需要从官网下载OpenVINO Toolkit工具包, 这里是跳转链接。
博主保存目录为~/Downloads/ 后文以此目录进行操作。

下载完成后,解压安装包并进入安装包目录:
  1. $ cd ~/Downloads/
  2. $ tar -xvzf l_openvino_toolkit_p_<version>.tgz
复制代码
接下来,与官方教程不同,博主建议提前安装一次依赖环境:
  1. $ sudo ./install_openvino_dependencies.sh
复制代码
安装好依赖后,我们开始安装OpenVINO Toolkit,这里我们使用图形界面安装器:
  1. $ sudo ./install_GUI.sh
复制代码

图1

<这里提示了我们没有安装iGPU图形加速运行库-OpenCL,我们在后续步骤中手动安装这个库>
一路下一步直到安装完成,默认的安装目录是/opt/intel。

图2

接下来再安装一次依赖库:
  1. $ cd /opt/intel/openvino/install_dependencies
  2. $ sudo -E ./install_openvino_dependencies.sh
复制代码
在上面的操作成功完成后,我们需要配置环境变量。
这里有两种配置模式:

  • 每次启动bash时都加载OpenVINO环境
  • 在需要时手动加载OpenVINO环境


对于第一种模式,我们在~/.bashrc文件中添加source即可实现:
  1. $ vim ~/.bashrc
复制代码
在文件的最后添加:
  1. source /opt/intel/openvino/bin/setupvars.sh
复制代码
保存文件后,输入:
  1. $ source ~/.bashrc
复制代码
如果出现了
[setupvars.sh] OpenVino environment initialized
即为环境初始化成功。

但是此方法导致每次打开bash时都会消耗时间加载环境,所以博主使用了另一个替代方案:
将上述步骤中的添加source 修改为:
  1. alias ov='source /opt/intel/openvino/bin/setupvars.sh'
复制代码
保存后,我们在需要使用OpenVINO环境时,键入ov并回车即可加载OpenVINO环境。

第二步:配置模型转换器->

英特尔官方的NCS开发环境“OpenVINO”使用了名为Intermediate Representation(IR)的网络模型。
.xml文件保存了网络的拓扑结构,而.bin文件以二进制方式保存了模型的权重w与偏差b。

如果我们需要将TensorFlow, Caffe等模型转换为OpenVINO支持的模型,则需要配置模型转换器。

首先切换到模型转换器的环境配置脚本目录:
  1. $ cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
复制代码
注意,这时我们可以指定安装某个模型的环境,也可以全部安装。如果全部安装,则执行:
  1. $ sudo ./install_prerequisites.sh
复制代码
此时所有支持的模型的依赖将会被安装,模型转换器可以转换所有支持的模型。

如果只需要转换某个特定框架的模型,那么可以使用一下命令系列中的某一个或某几个来配置:

Caffe 框架:
  1. $ sudo ./install_prerequisites_caffe.sh
复制代码
TensorFlow 框架:
  1. $ sudo ./install_prerequisites_tf.sh
复制代码
MXNet框架:
  1. $ sudo ./install_prerequisites_mxnet.sh
复制代码
ONNX框架:
  1. $ sudo ./install_prerequisites_onnx.sh
复制代码
Kaldi框架:
  1. $ sudo ./install_prerequisites_kaldi.sh
复制代码
安装完成后,即可使用模型转换器

此时, OpenVINO的推理引擎与模型转换器已经配置完成,接下来我们验证一下是否能正常工作。

第三步:验证OpenVINO安装结果->

首先,我们切换到推理引擎示例目录:
  1. $ cd /opt/intel/openvino/deployment_tools/demo
复制代码
运行“图像分类验证脚本”(官方叫法):
  1. $ ./demo_squeezenet_download_convert_run.sh
复制代码

图3

图片上的输出为正确的输出,如果没有得到正确的结果,请检查配置是否有误。
如果实在无法解决,请加入intel NCS & OpenVINO 交流QQ群:608483784,博主和其他小伙伴大家一起互帮互助~

接下来,我们运行“推理管道验证脚本”(还是官方叫法):
  1. $ ./demo_security_barrier_camera.sh
复制代码
如果显示如下图片,即为配置正确


图4

接下来,我们开始配置iGPU运行环境


第四步:配置iGPU依赖环境->


注意,官方给出的教程是适用于Ubuntu 16.04版本的,18.04在配置iGPU上有所不同…

首先, 我们需要下载Compute-runtime库,这里我们先创建一个文件夹:
  1. $ mkdir ~/neo
  2. $ cd ~/neo
复制代码
下载所需的包:
  1. $ wget https://github.com/intel/compute-runtime/releases/download/19.11.12599/intel-gmmlib_18.4.1_amd64.deb
  2. $ wget https://github.com/intel/compute-runtime/releases/download/19.11.12599/intel-igc-core_19.11.1622_amd64.deb
  3. $ wget https://github.com/intel/compute-runtime/releases/download/19.11.12599/intel-igc-opencl_19.11.1622_amd64.deb
  4. $ wget https://github.com/intel/compute-runtime/releases/download/19.11.12599/intel-opencl_19.11.12599_amd64.deb
  5. $ wget https://github.com/intel/compute-runtime/releases/download/19.11.12599/intel-ocloc_19.11.12599_amd64.deb
复制代码
验证 sha256:
  1. $ wget https://github.com/intel/compute-runtime/releases/download/19.11.12599/ww11.sum
  2. $ sha256sum -c ww11.sum
复制代码
五个文件都显示成功后, 我们安装deb包:
  1. 1 | $ sudo dpkg -i *.deb
复制代码
此时, iGPU运行OpenVINO推理引擎的环境,按照官方的说法便已经结束了。
但是!在博主的测试中,任然会出现一些奇怪的环境问题,比如缺少OpenCV库和OpenCL库。
由于博主没有在其他机器上测试过,所以如果读者在配置到这一步后已经能使用iGPU运行模型的话,便无需执行下列两个步骤。
当然,如果遇到了的其他的库缺失问题,请入群大家深入交流。

额外步骤一:源码方式安装OpenCV->
点击这里下载OpenCV 4.1.0源码。(查看原帖下载)
下载到~/Downloads文件夹后,解压到该文件夹下,然后进入目录并创建build文件夹:
  1. $ cd ~/Downloads/opencv-4.1.0
  2. $ mkdir build
  3. $ cd build
复制代码
接下来,安装编译所需库:
  1. $ sudo apt-get update
  2. $ sudo apt-get install build-essential
  3. $ sudo apt-get install cmake
  4. $ sudo apt-get install libgtk2.0-dev
  5. $ sudo apt-get install pkg-config
  6. $ sudo apt-get install python-dev python-numpy
  7. $ sudo apt-get install libavcodec-dev libavformat-dev libswscale-dev libjpeg-dev libpng-dev libtiff-dev libjasper-dev
复制代码
编译安装:

  1. $ cmake ../ -DCMAKE_BUILD_TYPE=RELEASE -DsCMAKE_INSTALL_PREFIX=/usr/local
复制代码
注意 根据你的CPU线程数,此处可以使用-j参数提升编译速度。比如博主CPU有12线程,便可以使用 make -j 12来提升编译速度!
注意 编译OpenCV所需内存较大(2G以上)
  1. $ make
  2. $ sudo make install
复制代码
完成后,添加环境变量:
  1. vim ~/.bashrc
复制代码
在文件末尾添加:
  1. PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/usr/local/lib/pkgconfig
  2. export PKG_CONFIG_PATH
复制代码
额外步骤二:安装OpenCL->
首先,我们需要在Intel官网注册下载intel_sdk_for_opencl_applications

下载完成后解压并进入解压目录,运行安装程序:
  1. $ sudo ./install.sh
复制代码
同意条款等,一路下一步直到安装完成。

此时,博主的电脑上已经可以正常的使用iGPU运行推理引擎了。

2#
 楼主| 发表于 2020-6-19 11:07:33 | 只看该作者
本帖最后由 Nicole_Terasic 于 2020-6-19 11:16 编辑

验证官方人脸识别Demo->

新版本的OpenVINO软件包中似乎移除了官方训练并转化好的IR模型。

为了验证人脸识别Demo是否能正常运行,我们需要下载官方模型:
  1. $ mkdir intel_model_download
  2. $ cd intel_model_download
  3. $ git clone https://github.com/opencv/open_model_zoo.git
复制代码
git完成后,我们可以使用
  1. 1 | ~/intel_model_download/open_model_zoo/model_downloader/downloader.py
复制代码
脚本来下载英特尔的模型,使用–all参数来下载所有模型文件,使用–name <Model_name> 来下载指定的模型文件。

我们的验证Demo源码位于
  1. 1 | ~/inference_engine_samples_build/
复制代码
目录下,首先我们得编译这些源码(同样推荐使用-j参数加速编译):
  1. $ ~/inference_engine_samples_build/
  2. $ make
复制代码
完成后,我们可以在
  1. ~/inference_engine_samples_build/intel64/Release
复制代码
目录中找到Demo程序,我们使用interactive_face_detection_demo来进行验证

输入
  1. $ ./interactive_face_detection_demo -h
复制代码
可以看到这个demo的用法。
我们需要使用-i参数指定输入源,-m指定模型,-d指定设备。

这里我们的模型使用face-detection-adas-0001模型。
使用上文中的模型下载脚本下载此脚本,
  1. 1 | ~/intel_model_download/open_model_zoo/model_downloader/downloader.py --name face-detection-adas-0001 -o ~/intel_models/open_model_zoo/intel_models/face-detection-adas-0001/
复制代码
下载完成后,IR模型路径在
  1. ~/intel_model_download/open_model_zoo/intel_models/face-detection-adas-0001/Transportation/object_detection/face/pruned_mobilenet_reduced_ssd_shared_weights/dldt
复制代码
目录下,这时我们可以使用命令运行Demo了:
  1. 1 | ~/inference_engine_samples_build/intel64/Release/interactive_face_detection_demo -i cam -m ~/intel_model_download/open_model_zoo/intel_models/face-detection-adas-0001/Transportation/object_detection/face/pruned_mobilenet_reduced_ssd_shared_weights/dldt/face-detection-adas-0001.xml -d GP
复制代码
当然,iGPU支持FP16的模型,只需在-m参数中修改为FP16模型即可。

-d 参数修改为CPU即为使用CPU运行推理模型,但需要注意,CPU不支持FP16模型!


图5

最终效果大概是如图上所示,人脸区域被框选出来。

————————————————
版权声明:本文为CSDN博主「Corazón」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_43741611/article/details/89365458
3#
发表于 2020-9-7 18:53:29 | 只看该作者
提示: 作者被禁止或删除 内容自动屏蔽
您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|MyFPGA

GMT+8, 2024-4-24 23:47 , Processed in 0.050133 second(s), 17 queries .

Powered by Discuz! X3

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表