Intel OpenVINO Toolkit
この文書は AI によって翻訳されています。内容に不正確な点や改善すべき点がございましたら、文書下部のコメント欄または以下の Issue ページにてご報告ください。
https://github.com/Seeed-Studio/wiki-documents/issues
ODYSSEY - X86J4105 に Intel® Distribution of OpenVINO™ Toolkit をインストールする
Intel® Distribution of OpenVINO™ Toolkit は、人間の視覚を模倣するアプリケーションやソリューションを迅速に展開するためのツールキットです。畳み込みニューラルネットワーク(CNN)に基づいており、コンピュータビジョン(CV)ワークロードを Intel® ハードウェア全体に拡張し、パフォーマンスを最大化します。このツールキットには、Intel® Deep Learning Deployment Toolkit(Intel® DLDT)が含まれています。
詳細については、Intel® Distribution of OpenVINO™ Toolkit をご覧ください。
注意: 公式ドキュメントによると、OpenVINO™ Toolkit はさまざまなオペレーティングシステムにインストール可能です。このチュートリアルでは、ODYSSEY - X86J4105 に Ubuntu 18.04.4 LTS をインストールし、Linux 上で OpenVINO™ Toolkit をインストールします。 環境エラーを回避するため、このバージョンの Ubuntu をインストールすることを強く推奨します。
このチュートリアルは公式の Install Intel® Distribution of OpenVINO™ Toolkit for Linux* を基に改変されています。
ハードウェア要件
動作するコンピュータ
モニター
キーボードとマウス
インターネット接続
Ubuntu OS のインストール
まだ Ubuntu をインストールしていない場合は、このチュートリアル に従って ODYSSEY - X86J4105 に Ubuntu をインストールしてください。
Intel® Distribution of OpenVINO™ Toolkit のインストール
Intel® Distribution of OpenVINO™ Toolkit for Linux* から Intel® Distribution of OpenVINO™ Toolkit パッケージファイルをダウンロードします。ドロップダウンメニューから Intel® Distribution of OpenVINO™ Toolkit for Linux パッケージを選択してください。
Ubuntu でターミナルを開きます。
Intel Distribution of OpenVINO Toolkit for Linux* パッケージファイルをダウンロードしたディレクトリに移動します。ファイルを現在のユーザーの
Downloads
ディレクトリにダウンロードした場合:
cd ~/Download/
デフォルトでは、ファイルは l_openvino_toolkit_p_<version>.tgz
として保存されます。
.tgz
ファイルを解凍します:
tar -xvzf l_openvino_toolkit_p_<version>.tgz
ファイルは l_openvino_toolkit_p_<version>
フォルダに解凍されます。
l_openvino_toolkit_p_<version>
ディレクトリに移動します:
cd l_openvino_toolkit_p_<version>
- 次のスクリプトを実行して Intel® Distribution of OpenVINO™ Toolkit をインストールします:
sudo ./install_GUI.sh
注意: これは GUI インストールウィザードです。コマンドラインインストールの手順もあります: sudo ./install.sh
。ただし、エラーを回避するために GUI インストールを使用することを強く推奨します。
- 画面の指示に従います。
- デフォルトオプションを選択した場合、インストール概要の GUI 画面は次のようになります:
- 注意: インストールディレクトリやインストールするコンポーネントを変更するカスタマイズも可能です:
root
としてインストールした場合、Intel Distribution of OpenVINO のデフォルトインストールディレクトリは /opt/intel/openvino/
です。
- コアコンポーネントがインストールされると、完了画面が表示されます:
外部ソフトウェア依存関係のインストール
これらの依存関係は以下のために必要です:
Intel に最適化された OpenCV ライブラリのビルド
ディープラーニング推論エンジン
ディープラーニングモデルオプティマイザツール
install_dependencies
ディレクトリに移動します:
cd /opt/intel/openvino/install_dependencies
- 外部ソフトウェア依存関係をダウンロードしてインストールするスクリプトを実行します:
sudo -E ./install_openvino_dependencies.sh
これはインターネット速度に依存するため、しばらくお待ちください。外部ソフトウェア依存関係がインストールされました!
環境変数の設定
OpenVINO™ アプリケーションをコンパイルおよび実行する前に、いくつかの環境変数を更新する必要があります。以下のスクリプトを実行して、一時的に環境変数を設定してください:
source /opt/intel/openvino/bin/setupvars.sh
注意: OpenVINO の環境変数はシェルを閉じると削除されます。オプションとして、以下の手順で環境変数を永続的に設定することができます:
<user_directory>
の.bashrc
ファイルを開きます。
nano /home/USERNAME/.bashrc
USERNAME
を自分のユーザー名に置き換えてください。
- ファイルの末尾に以下の行を追加します:
source /opt/intel/openvino/bin/setupvars.sh
Ctrl + O を押して保存し、Ctrl + X を押して終了します。
変更をテストするには、新しいターミナルを開きます。ターミナルの上部に
[setupvars.sh] OpenVINO environment initialized
と表示されるはずです。
モデルオプティマイザの設定
モデルオプティマイザは、Caffe、TensorFlow、Apache MXNet、ONNX、Kaldi などの一般的なディープラーニングフレームワークからトレーニング済みモデルをインポートするための Python ベースのコマンドラインツールです。
モデルオプティマイザは Intel Distribution of OpenVINO ツールキットの重要なコンポーネントです。モデルオプティマイザを使用せずにトレーニング済みモデルで推論を行うことはできません。トレーニング済みモデルをモデルオプティマイザで処理すると、ネットワークの中間表現(IR)が出力されます。中間表現は、モデル全体を記述する 2 つのファイルで構成されています:
.xml
: ネットワークトポロジーを記述.bin
: 重みとバイアスのバイナリデータを含む
モデルオプティマイザに関する詳細は、Model Optimizer Developer Guide を参照してください。
モデルオプティマイザ設定手順
すべてのサポートされているフレームワークを一度に設定する方法 または 個別に設定する方法を選択できます。ニーズに最適なオプションを選んでください。エラーメッセージが表示された場合は、すべての依存関係がインストールされていることを確認してください。
オプション 1: すべてのサポートされているフレームワークを同時に設定する
- モデルオプティマイザの前提条件ディレクトリに移動します:
cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
- Caffe、TensorFlow、MXNet、Kaldi*、ONNX 用にモデルオプティマイザを設定するスクリプトを実行します:
sudo ./install_prerequisites.sh
オプション 2: 各フレームワークを個別に設定する
モデルフレームワーク用のスクリプトを実行します。複数のスクリプトを実行することも可能です:
- Caffe 用:
sudo ./install_prerequisites_caffe.sh
- TensorFlow 用:
sudo ./install_prerequisites_tf.sh
- MXNet 用:
sudo ./install_prerequisites_mxnet.sh
- ONNX 用:
sudo ./install_prerequisites_onnx.sh
- Kaldi 用:
sudo ./install_prerequisites_kaldi.sh
これで、サンプルをコンパイルして実行する準備が整いました!
インストールを検証するためのスクリプトを実行
ODYSSEY - X86J4105 の CPU 上でインストールを検証し、2つのサンプルをコンパイルするには:
- 推論エンジンのデモディレクトリに移動します:
cd /opt/intel/openvino/deployment_tools/demo
- 画像分類検証スクリプトを実行します:
./demo_squeezenet_download_convert_run.sh
この検証スクリプトは、SqueezeNet モデルをダウンロードし、Model Optimizer を使用してモデルを .bin
および .xml
の中間表現(IR)ファイルに変換します。推論エンジンはこのモデル変換を必要とし、IR を入力として使用することで Intel ハードウェア上で最適なパフォーマンスを実現します。
この検証スクリプトは Image Classification Sample Async アプリケーション をビルドし、デモディレクトリにある car.png
画像で実行します。検証スクリプトが完了すると、上位10カテゴリのラベルと信頼度が表示されます:
推論パイプライン検証スクリプトを実行します:
./demo_security_barrier_camera.sh
このスクリプトは3つの事前トレーニング済みモデル IR をダウンロードし、Security Barrier Camera Demo アプリケーションをビルドし、ダウンロードしたモデルとデモディレクトリにある car_1.bmp
画像を使用して推論パイプラインを表示します。この検証スクリプトは、車両認識を使用しており、車両属性が互いに基づいて特定の属性に絞り込まれる仕組みを示します。
検証スクリプトについて詳しくは、/opt/intel/openvino/deployment_tools/demo
内の README.txt ファイルを参照してください。
Intel Distribution of OpenVINO™ の事前トレーニング済み物体検出および物体認識モデルの説明については、OpenVINO™ Toolkit Pre-Trained Models の概要 を参照してください。
これで、CPU を使用してトレーニング済みモデルを操作するために必要なすべてのインストール、設定、およびビルド手順が完了しました。ODYSSEY - X86J4105 を使用してモデルをトレーニングするための強力な Intel OpenVINO ツールを自由に探索してください!
リソース
技術サポート & 製品ディスカッション
弊社製品をお選びいただきありがとうございます!お客様の製品体験がスムーズになるよう、さまざまなサポートを提供しています。異なる好みやニーズに対応するため、いくつかのコミュニケーションチャネルを用意しています。