Instalando o Intel® Distribution of OpenVINO™ toolkit para ODYSSEY - X86J4105

O Intel® Distribution of OpenVINO™ toolkit implanta rapidamente aplicações e soluções que emulam a visão humana. Baseado em Redes Neurais Convolucionais (CNN), o toolkit estende cargas de trabalho de visão computacional (CV) em todo o hardware Intel®, maximizando o desempenho. O Intel® Distribution of OpenVINO™ toolkit inclui o Intel® Deep Learning Deployment Toolkit (Intel® DLDT).
Para mais informações, visite Intel® Distribution of OpenVINO™ toolkit.
Nota: De acordo com o documento oficial, o OpenVINO™ toolkit pode ser instalado em diferentes sistemas operacionais. Para este tutorial, o Ubuntu 18.04.4 LTS está instalado no ODYSSEY - X86J4105 e o OpenVINO™ toolkit será instalado no Linux. É altamente recomendado instalar esta versão do Ubuntu para evitar erros de ambiente que possam ocorrer.
Este tutorial é modificado a partir do oficial Install Intel® Distribution of OpenVINO™ toolkit for Linux*.
Requisitos de Hardware
-
Um computador funcional
-
Um monitor
-
Teclado e mouse
-
Conexão com a Internet
Instalar o sistema operacional Ubuntu
Se você ainda não instalou o Ubuntu, sinta-se à vontade para seguir este tutorial para instalar o Ubuntu no seu ODYSSEY - X86J4105.
Instalar o Intel® Distribution of OpenVINO™ Toolkit
Baixe o arquivo de pacote do Intel® Distribution of OpenVINO™ toolkit a partir de Intel® Distribution of OpenVINO™ toolkit for Linux*. Selecione o pacote Intel® Distribution of OpenVINO™ toolkit for Linux no menu suspenso.
-
Abra o Terminal no Ubuntu.
-
Altere os diretórios para onde você baixou o pacote Intel Distribution of OpenVINO toolkit for Linux*. se baixado para o diretório
Downloadsdo usuário atual:
cd ~/Download/
Por padrão, o arquivo é salvo como l_openvino_toolkit_p_<version>.tgz
- Descompacte o arquivo
.tgz:
tar -xvzf l_openvino_toolkit_p_<version>.tgz
Os arquivos são descompactados para a pasta l_openvino_toolkit_p_<version>.
- Vá para o diretório
l_openvino_toolkit_p_<version>:
cd l_openvino_toolkit_p_<version>
- Instale o Intel® Distribution of OpenVINO™ Toolkit executando o seguinte script:
sudo ./install_GUI.sh
Nota: Este é o Assistente de instalação GUI, também há as instruções de linha de comando: sudo ./install.sh, mas é altamente recomendado usar a instalação GUI para evitar erros.
- Siga as instruções na tela.

- Se você selecionar as opções padrão, a tela de resumo da instalação GUI ficará assim:

- Nota: Você também pode personalizar para alterar o diretório de instalação ou os componentes que deseja instalar:

Quando instalado como root o diretório de instalação padrão para o Intel Distribution of OpenVINO é /opt/intel/openvino/.
- Uma tela de conclusão aparecerá quando os componentes principais tiverem sido instalados:

Instalar Dependências Externas de Software
Essas dependências são necessárias para:
-
Compilação otimizada pela Intel da biblioteca OpenCV
-
Deep Learning Inference Engine
-
Ferramentas Deep Learning Model Optimizer
- Altere para o diretório
install_dependencies:
cd /opt/intel/openvino/install_dependencies
- Execute o script para baixar e instalar as dependências externas de software:
sudo -E ./install_openvino_dependencies.sh

Isso depende da velocidade da internet, por favor seja paciente. As dependências externas de software estão instaladas!
Definir as Variáveis de Ambiente
Você deve atualizar várias variáveis de ambiente antes de poder compilar e executar aplicações OpenVINO™. Execute o seguinte script para definir temporariamente suas variáveis de ambiente:
source /opt/intel/openvino/bin/setupvars.sh
Nota: As variáveis de ambiente do OpenVINO são removidas quando você fecha o shell. Como opção, você pode definir permanentemente as variáveis de ambiente da seguinte forma:
- Abra o arquivo
.bashrcem<user_directory>.
nano /home/USERNAME/.bashrc
Substitua o seu nome de usuário por USERNAME.
- Adicione esta linha ao final do arquivo:
source /opt/intel/openvino/bin/setupvars.sh

-
Use Ctrl + O para salvar e Ctrl + X para sair.
-
Para testar sua alteração, abra um novo terminal. Você deverá ver
[setupvars.sh] OpenVINO environment initializedno topo do terminal.
Configurar o Model Optimizer
O Model Optimizer é uma ferramenta de linha de comando baseada em Python* para importar modelos treinados de estruturas populares de deep learning tais como Caffe*, TensorFlow*, Apache MXNet*, ONNX* e Kaldi*.
O Model Optimizer é um componente-chave do Intel Distribution of OpenVINO toolkit. Você não pode executar inferência no seu modelo treinado sem executar o modelo através do Model Optimizer. Quando você executa um modelo pré-treinado através do Model Optimizer, sua saída é uma Representação Intermediária (IR) da rede. A Representação Intermediária é um par de arquivos que descrevem todo o modelo:
-
.xml: Descreve a topologia da rede -
.bin: Contém os dados binários de pesos e vieses
Para mais informações sobre o Model Optimizer, consulte o Model Optimizer Developer Guide.
Etapas de Configuração do Model Optimizer
Você pode escolher configurar todos os frameworks suportados de uma vez OU configurar um framework por vez. Escolha a opção que melhor se adapta às suas necessidades. Se você vir mensagens de erro, certifique-se de ter instalado todas as dependências.
OPÇÃO 1: Configurar todos os frameworks suportados ao mesmo tempo
- Vá para o diretório de pré-requisitos do Model Optimizer:
cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
- Execute o script para configurar o Model Optimizer para Caffe, TensorFlow, MXNet, Kaldi* e ONNX:
sudo ./install_prerequisites.sh
OPÇÃO 2: Configurar cada framework separadamente
Execute o script para o framework do seu modelo. Você pode executar mais de um script:
- Para Caffe:
sudo ./install_prerequisites_caffe.sh
- Para TensorFlow:
sudo ./install_prerequisites_tf.sh
- Para MXNet:
sudo ./install_prerequisites_mxnet.sh
- Para ONNX:
sudo ./install_prerequisites_onnx.sh
- Para Kaldi:
sudo ./install_prerequisites_kaldi.sh
Agora você está pronto para compilar e executar os exemplos!
Execute o Script de Verificação para Verificar a Instalação
Para verificar a instalação e compilar dois exemplos na CPU do ODYSSEY - X86J4105:
- Vá para o diretório de demonstração do Inference Engine:
cd /opt/intel/openvino/deployment_tools/demo
- Execute o script de verificação de Classificação de Imagem:
./demo_squeezenet_download_convert_run.sh
Este script de verificação baixa um modelo SqueezeNet, usa o Model Optimizer para converter o modelo para os arquivos de Representação Intermediária (IR) .bin e .xml. O Inference Engine requer essa conversão de modelo para que possa usar a IR como entrada e atingir desempenho máximo no hardware Intel.
Este script de verificação compila a aplicação Image Classification Sample Async e a executa com a imagem car.png localizada no diretório de demonstração. Quando o script de verificação é concluído, você terá o rótulo e a confiabilidade para as 10 principais categorias:

Execute o script de verificação do Pipeline de Inferência:
./demo_security_barrier_camera.sh

Este script baixa três IRs de modelos pré-treinados, compila a aplicação Security Barrier Camera Demo e a executa com os modelos baixados e a imagem car_1.bmp do diretório de demonstração para mostrar um pipeline de inferência. O script de verificação usa reconhecimento de veículos no qual os atributos do veículo se baseiam uns nos outros para restringir a um atributo específico.
Para aprender sobre os scripts de verificação, veja o arquivo README.txt em /opt/intel/openvino/deployment_tools/demo.
Para uma descrição dos modelos pré-treinados de detecção e reconhecimento de objetos do Intel Distribution of OpenVINO™, veja Overview of OpenVINO™ Toolkit Pre-Trained Models.
Você concluiu todas as etapas necessárias de instalação, configuração e compilação neste guia para usar sua CPU para trabalhar com seus modelos treinados, sinta-se à vontade para explorar a poderosa ferramenta Intel OpenVINO para treinar seus modelos com o ODYSSEY - X86J4105!
Recursos
Suporte Técnico e Discussão de Produto
Obrigado por escolher nossos produtos! Estamos aqui para fornecer diferentes tipos de suporte para garantir que sua experiência com nossos produtos seja a mais tranquila possível. Oferecemos vários canais de comunicação para atender a diferentes preferências e necessidades.