为 ODYSSEY - X86J4105 安装 Intel® Distribution of OpenVINO™ 工具包
Intel® Distribution of OpenVINO™ 工具包能够快速部署模拟人类视觉的应用和解决方案。基于卷积神经网络(CNN),该工具包扩展了计算机视觉(CV)工作负载至 Intel® 硬件,从而最大化性能。Intel® Distribution of OpenVINO™ 工具包包括 Intel® 深度学习部署工具包(Intel® DLDT)。
有关更多信息,请访问 Intel® Distribution of OpenVINO™ 工具包。
注意: 根据官方文档,OpenVINO™ 工具包可以安装在不同的操作系统上。**在本教程中,ODYSSEY - X86J4105 上安装了 Ubuntu 18.04.4 LTS,并将在 Linux 上安装 OpenVINO™ 工具包。**强烈建议安装此版本的 Ubuntu,以避免可能出现的环境错误。
本教程改编自官方文档 Install Intel® Distribution of OpenVINO™ toolkit for Linux*。
硬件要求
-
一台可用的电脑
-
一台显示器
-
键盘和鼠标
-
网络连接
安装 Ubuntu 操作系统
如果尚未安装 Ubuntu,请随时参考 此教程 将 Ubuntu 安装到 ODYSSEY - X86J4105 上。
安装 Intel® Distribution of OpenVINO™ 工具包
从 Intel® Distribution of OpenVINO™ toolkit for Linux* 下载 Intel® Distribution of OpenVINO™ 工具包安装文件。从下拉菜单中选择 Intel® Distribution of OpenVINO™ toolkit for Linux 包。
-
在 Ubuntu 中打开终端。
-
切换到下载 Intel Distribution of OpenVINO toolkit for Linux* 安装文件的目录。如果文件下载到当前用户的
Downloads
目录:
cd ~/Download/
默认情况下,文件保存为 l_openvino_toolkit_p_<version>.tgz
- 解压
.tgz
文件:
tar -xvzf l_openvino_toolkit_p_<version>.tgz
文件将解压到 l_openvino_toolkit_p_<version>
文件夹。
- 进入
l_openvino_toolkit_p_<version>
目录:
cd l_openvino_toolkit_p_<version>
- 运行以下脚本安装 Intel® Distribution of OpenVINO™ 工具包:
sudo ./install_GUI.sh
注意: 这是 GUI 安装向导,也可以使用命令行安装方式:sudo ./install.sh
,但强烈建议使用 GUI 安装以避免错误。
- 按屏幕上的说明操作。
- 如果选择默认选项,安装摘要 GUI 屏幕将如下所示:
- 注意: 也可以自定义安装目录或选择要安装的组件:
如果以 root 用户身份安装,Intel Distribution of OpenVINO 的默认安装目录为 /opt/intel/openvino/
。
- 当核心组件安装完成时,将出现完成屏幕:
安装外部软件依赖
这些依赖项是为以下功能所需的:
-
Intel 优化版 OpenCV 库
-
深度学习推理引擎
-
深度学习模型优化工具
- 切换到
install_dependencies
目录:
cd /opt/intel/openvino/install_dependencies
- 运行脚本以下载并安装外部软件依赖项:
sudo -E ./install_openvino_dependencies.sh
这取决于您的网络速度,请耐心等待。外部软件依赖项已安装完成!
设置环境变量
在编译和运行 OpenVINO™ 应用程序之前,您必须更新几个环境变量。运行以下脚本以临时设置您的环境变量:
source /opt/intel/openvino/bin/setupvars.sh
注意: 当您关闭终端时,OpenVINO 环境变量将被移除。作为一种选择,您可以按照以下步骤永久设置环境变量:
- 打开
<user_directory>
中的.bashrc
文件。
nano /home/USERNAME/.bashrc
将您的用户名替换为 USERNAME
。
- 在文件末尾添加以下行:
source /opt/intel/openvino/bin/setupvars.sh
-
使用 Ctrl + O 保存并使用 Ctrl + X 退出。
-
为测试更改,打开一个新的终端。您应该在终端顶部看到
[setupvars.sh] OpenVINO environment initialized
。
配置模型优化器
模型优化器是一个基于 Python* 的命令行工具,用于从流行的深度学习框架(如 Caffe*、TensorFlow*、Apache MXNet*、ONNX* 和 Kaldi*)导入训练好的模型。
模型优化器是 Intel Distribution of OpenVINO 工具包的关键组件。如果不通过模型优化器运行模型,您将无法对训练好的模型进行推理。当您通过模型优化器运行预训练模型时,输出将是网络的中间表示(IR)。中间表示由一对文件组成,描述整个模型:
-
.xml
:描述网络拓扑结构 -
.bin
:包含权重和偏置的二进制数据
有关模型优化器的更多信息,请参阅 模型优化器开发者指南。
模型优化器配置步骤
您可以选择一次性配置所有支持的框架 或 单独配置一个框架。选择最适合您需求的选项。如果看到错误消息,请确保已安装所有依赖项。
选项 1:同时配置所有支持的框架
- 转到模型优化器的先决条件目录:
cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
- 运行脚本以为 Caffe、TensorFlow、MXNet、Kaldi 和 ONNX 配置模型优化器:
sudo ./install_prerequisites.sh
选项 2:单独配置每个框架
运行适用于您的模型框架的脚本。您可以运行多个脚本:
- 对于 Caffe:
sudo ./install_prerequisites_caffe.sh
- 对于 TensorFlow:
sudo ./install_prerequisites_tf.sh
- 对于 MXNet:
sudo ./install_prerequisites_mxnet.sh
- 对于 ONNX:
sudo ./install_prerequisites_onnx.sh
- 对于 Kaldi:
sudo ./install_prerequisites_kaldi.sh
现在,您已经准备好编译并运行示例了!
运行验证脚本以验证安装
在 ODYSSEY - X86J4105 的 CPU 上验证安装并编译两个示例:
- 进入 Inference Engine 示例目录:
cd /opt/intel/openvino/deployment_tools/demo
- 运行 图像分类验证脚本:
./demo_squeezenet_download_convert_run.sh
此验证脚本会下载一个 SqueezeNet 模型,使用模型优化器将模型转换为 .bin
和 .xml
的中间表示(IR)文件。推理引擎需要这种模型转换,以便使用 IR 作为输入并在 Intel 硬件上实现最佳性能。
此验证脚本会构建 异步图像分类示例应用程序,并使用位于示例目录中的 car.png
图像运行它。当验证脚本完成时,您将获得前 10 个类别的标签和置信度:
运行 推理管道验证脚本:
./demo_security_barrier_camera.sh
此脚本会下载三个预训练模型的 IR,构建 安全屏障摄像头示例 应用程序,并使用下载的模型和示例目录中的 car_1.bmp
图像运行它,以展示推理管道。验证脚本使用车辆识别,其中车辆属性逐步叠加以缩小到特定属性。
要了解验证脚本的详细信息,请参阅 /opt/intel/openvino/deployment_tools/demo
目录中的 README.txt 文件。
有关 Intel Distribution of OpenVINO™ 预训练目标检测和目标识别模型的描述,请参阅 OpenVINO™ 工具包预训练模型概述。
您已完成本指南中所有必要的安装、配置和构建步骤,可以使用您的 CPU 与训练好的模型一起工作。尽情探索强大的 Intel OpenVINO 工具,在 ODYSSEY - X86J4105 上训练您的模型吧!
资源
技术支持与产品讨论
感谢您选择我们的产品!我们为您提供多种支持,以确保您使用我们的产品时体验顺畅。我们提供多种沟通渠道,以满足不同的偏好和需求。