Annuaire d'articles
avant-propos
Rappel : Le document de ce film est traduit du document officiel et de mon opération d'installation actuelle. En raison du niveau limité, vous êtes invités à laisser un message et à me corriger en cas d'inadéquation.
Ce guide s'applique à Microsoft Windows* 10 64 位
. Linux*
Consultez Linux
le guide d'installation pour obtenir des informations et des instructions sur le système d'exploitation .
Conseil : vous pouvez utiliser l'optimiseur de modèle dans
OpenVINO™
Deep Learning Workbench ( ) pour démarrer rapidement. est une interface utilisateur qui vous permet d'importer des modèles, d'analyser leurs performances et leur précision, de visualiser les résultats, d'optimiser et de préparer des modèles pour le déploiement sur diverses plates-formes Intel®.DL Workbench
DL Workbench
OpenVINO™
introduire
indice important :
- Sauf indication contraire, toutes les étapes de ce guide doivent être suivies
- En plus de télécharger le package d'installation, les dépendances doivent également être installées pour terminer toutes les configurations
Effectuez toutes les étapes suivantes pour terminer l'installation :
-
Installer
Intel® OpenVINO™
le package d'outils de base -
Installer les outils et logiciels dépendants
Microsoft Visual Studio* 2019 with MSBuild
CMake 3.14 or higher 64-bit
Python 3.6 - 3.8 64-bit
Remarque importante : dans le cadre du processus d'installation, assurez-vous de cocher Ajouter le chemin d'installation aux variables d'environnement
Python
lors de l'installation des dépendances .Add Python 3.x to PATH
Python
PATH
-
définir des variables d'environnement
-
Configurer l'optimiseur de modèle (
Model Optimizer
) -
Étapes d'installation facultatives :
- Installer
windows
la versionIntel® Graphics
du pilote - Installez les pilotes et le logiciel
Intel® Movidius™ VPU
pourIntel® Vision Accelerator Design
( Vision Accelerator Design) en utilisantintel
- Mettre à jour
Windows*
les variables d'environnement ( cette étape est obligatoire si ellePython
n'est pas cochée lors de l'installation)add Python to the path
- Installer
En outre, ce guide couvre également les étapes suivantes :
- Exemples de code et démonstrations de démarrage
- Désinstaller
OpenVINO™
la boîte à outils
Présentation de la boîte à outils Intel OpenVINO™
OpenVINO™
Toolkit est une boîte à outils complète pour le développement rapide d'applications et de solutions qui traitent une variété de tâches, y compris la simulation de la vision humaine, la reconnaissance automatique de la parole, le traitement du langage naturel, les systèmes de recommandation, etc. Basé sur la dernière génération de réseaux de neurones artificiels, y compris les réseaux de neurones convolutifs ( CNN
), les réseaux récurrents et les réseaux basés sur l'attention, la boîte à outils fait évoluer les charges de travail de vision par ordinateur et de non-vision sur le matériel Intel® pour optimiser les performances. Il accélère les applications grâce à l'intelligence artificielle hautes performances et à l'inférence d'apprentissage en profondeur des hôtes périphériques aux déploiements dans le cloud. Pour plus de détails, voir la page de détails
Fonctionnalités de distribution OpenVINO
Ce guide se concentre sur les principaux avantages de la distribution du kit d'outils pour Windows* 10
votre système d'exploitation , notamment :OpenVINO
- Activer
CNN
l'inférence d'apprentissage en profondeur basée sur l'informatique de pointe - Prend en charge l'exécution hétérogène entre
Intel® CPU
,Intel® GPU
etIntel® Neural Compute Stick 2
avecIntel® Vision Accelerator Design
Intel® Movidius™ VPU
- Accélérez la mise sur le marché avec une bibliothèque facile à utiliser de fonctions de vision par ordinateur et des noyaux pré-optimisés
- Comprend des appels optimisés aux normes de vision par ordinateur, y compris
OpenCV*
etOpenCL™
Composants OpenVINO
Cette installation inclut les composants suivants par défaut
Composants | décrire |
---|---|
Optimiseur de modèle | L'outil importe, convertit et optimise les modèles formés dans des frameworks populaires dans un format utilisable par les outils Intel, en particulier le moteur d'inférence. Remarque : les frameworks populaires incluent des frameworks tels que Caffe*, TensorFlow*, MXNet* et ONNX*. |
Moteur d'inférence | Il s'agit du moteur qui exécute des modèles d'apprentissage en profondeur et comprend un ensemble de bibliothèques dépendantes qui facilitent l'intégration de l'inférence dans les applications. |
CV ouvert* | Version de la communauté OpenCV* compilée pour le matériel Intel® |
Exemples de moteur d'inférence | Un ensemble d'applications de console simples qui montrent comment utiliser le moteur d'inférence Deep Learning d'Intel dans vos applications. . |
Démos | Un ensemble d'applications de console qui montrent comment utiliser le moteur d'inférence dans des applications pour résoudre des cas d'utilisation spécifiques |
Outils supplémentaires | Un ensemble d'outils pour les modèles, y compris un utilitaire de vérification de la précision, un guide des outils d'optimisation post-formation, un téléchargeur de modèles, etc. |
Documentation pour les modèles pré-entraînés | Documentation pour les modèles pré-entraînés disponible dans le référentiel Open Model Zoo |
Configuration requise
Exigences matérielles
- Processeurs Intel® Core™ de 6e à 11e génération et processeurs Intel® Xeon®
- Processeurs évolutifs Intel® Xeon® de 3e génération (anciennement nom de code
Cooper Lake
) - Processeurs évolutifs Intel® Xeon® ( anciennement
Skylake
etCascade Lake
- Processeur Intel Atom® avec prise en charge des extensions Intel® Streaming SIMD 4.1 (Intel® SSE4.1)
- Processeur Intel Pentium® N4200/5, N3350/5 ou N3450/5 avec Intel® HD Graphics
- Graphiques Intel® Iris® Xe MAX
- Intel® Neural Compute Stick 2(
Neural Compute Stick 2
) - Conception d'accélérateur de vision Intel® avec VPU Intel® Movidius™ (
Vision Accelerator Design
)
Remarque :
OpenVINO™ 2020.4
n'est plus pris en chargeIntel® Movidius™ Neural Compute Stick
.
À propos du processeur :
- Tous les processeurs n'incluent pas de graphiques de processeur. Pour plus d'informations sur le processeur, reportez-vous à la section Spécifications du processeur. lien détaillé
- Si vous utilisez un processeur Intel Xeon, vous aurez besoin d'un chipset prenant en charge les graphiques du processeur. Pour plus d'informations sur votre chipset, consultez Spécifications du chipset. détails
système opérateur
Microsoft Windows* 10 64-bit
Logiciels requis
Microsoft Visual Studio* with C++ 2019 or 2017 with MSBuild
lien de téléchargementCMake 3.10 or higher 64-bit
Remarque : Si vous devez utiliser
Microsoft Visual Studio 2019
, vous devez installerCMake 3.14
. Lien de téléchargementPython 3.6 - 3.8 64-bit
lien de téléchargement
étapes d'installation
Veuillez vous assurer que votre matériel répond aux exigences système ci-dessus, les dépendances logicielles telles que
Microsoft Vusual Studio
etCMake
ont été installées
Installez les composants principaux de la boîte à outils Intel® of OpenVINO™
-
Si vous n'avez pas téléchargé la boîte à outils Intel® Distribution of OpenVINO™, cliquez ici pour la télécharger . Le nom de fichier par défaut du package d'installation téléchargé est
w_openvino_toolkit_p_<version>.exe
.
Recommandation : sélectionnez le système d'exploitation, la version, la version du logiciel et la méthode d'installation de haut en bas. Les options recommandées sont :
Windows
,Web & Local 2021.3
, , c'est-à-dire sélectionnez la versionLocal
applicable àWindows
la plate-forme2021.3
本地安装包
-
Double-cliquez sur le package d'installation, l'interface d'installation apparaîtra et vous laissera choisir le chemin d'installation, le chemin d'installation par défaut est ,
C:\Program Files (x86)\Intel\openvino_<version>
pour simplifier l'opération, un raccourci sera créé pour pointer vers ce répertoire d'installation en même tempsC:\Program Files (x86)\Intel\openvino_2021
, si vous choisissez un autre chemin, le raccourci sera également crééRemarque : Si l'outil OpenVINO™ a déjà été installé sur votre système, cette installation utilisera le chemin d'installation existant pour l'installer à nouveau. Si vous devez installer cette nouvelle version dans un autre chemin, vous devez désinstaller l'ancienne version.
-
Cliquez
next
pour choisir d'autoriser ou non le logiciel à collecter et envoyer des informations d'utilisation, choisissez-en une au hasard, puis cliquez surnext
-
S'il vous manque des dépendances externes, vous verrez un écran d'avertissement. dit vos dépendances manquantes. Aucune autre action n'est requise de votre part pour le moment. Après avoir installé
Intel® Distribution of OpenVINO™
les composants principaux de la boîte à outils, installez les dépendances manquantes. La capture d'écran ci-dessous montre qu'il vous manque deux dépendances (affiche trois avertissements, le GPU au milieu peut être ignoré, les deux dépendances manquantes doivent êtrePython
etCMake
):
-
Cliquez sur suivant, et lorsque la capture d'écran suivante apparaît, cela signifie que l'installation de la première partie est terminée.
installer les dépendances
Comme mentionné précédemment, MS Visual Studio et CMake ont été installés, ignorez cette étape et accédez au 配置环境变量
module
- installer
Microsoft Visual Studio* with C++ 2019 or 2017 with MSBuild
le lien de téléchargement - Installer.Lien de téléchargement
CMake 3.14
_
Configurer les variables d'environnement
C:\Program Files (x86)\Intel
Remarque : Si vous installez OpenVINO dans un chemin d'installation autre que celui par défaut, votre chemin d'installation actuel sera remplacé lors de l'exécution des commandes de configuration suivantes .
Vous devez mettre à jour plusieurs variables d'environnement avant de compiler et d'exécuter OpenVINO
l'application. Ouvrez une invite de commande et exécutez setupvars.bat
un fichier batch pour définir temporairement vos variables d'environnement :
C:\Program Files (x86)\Intel\openvino_2021\bin\setupvars.bat
les résultats d'exécution sont les suivants
C:\Users\aoto>C:\"Program Files (x86)"\Intel\openvino_2021\bin\setupvars.bat
Python 3.6.8
[setupvars.bat] OpenVINO environment initialized
REMARQUE IMPORTANTE : Il n'est pas recommandé d'utiliser Windows PowerShell* pour exécuter ce script de configuration, l'outil de ligne de commande est recommandé.
Les variables d'environnement ont été définies, puis configurezModel Optimizer
configurationModel Optimizer
REMARQUE IMPORTANTE : ces étapes sont obligatoires. Vous devez configurer l'optimiseur de modèle pour au moins une infrastructure. Si vous ne suivez pas les étapes de cette section, l'optimiseur de modèle échouera.
Description de l'optimiseur de modèle
Model Optimizer est OpenVINO
un composant clé de la distribution Intel® de Toolkit. Il n'est pas possible d'effectuer une inférence sur un modèle formé sans exécuter le modèle via l'optimiseur de modèle. Lorsque vous exécutez un modèle pré-entraîné via l'optimiseur de modèle, votre sortie est une représentation intermédiaire (IR) du réseau. L'IR est une paire de fichiers décrivant l'ensemble du modèle :
- .xml : Description de la topologie du réseau
- .bin : données binaires avec pondérations et biais
CPU
Le moteur d' inférence utilise des fichiers de lecture, de chargement et d'inférence à travers GPU
ou VPU
du matériel .通用 API
IR
Model Optimizer est un Python
outil de ligne de commande ( mo.py
) basé sur C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer
. Utilisez cet outil sur des modèles entraînés avec des cadres d'apprentissage en profondeur populaires tels que Caffe
, TensorFlow
, MXNet
et ONNX
, pour les convertir dans un IR
format optimisé pouvant être utilisé par les moteurs d'inférence.
Cette section explique comment utiliser des scripts pour configurer l'optimiseur de modèle pour tous les frameworks pris en charge ou pour un seul framework en même temps. Si vous souhaitez configurer manuellement l'optimiseur de modèle au lieu d'utiliser un script, consultez la section Utilisation du processus de configuration manuelle sur la page Configuration de l'optimiseur de modèle.
Pour plus d'informations sur l'optimiseur de modèle, consultez le Guide du développeur de l'optimiseur de modèle.
Étapes de configuration de l'optimiseur de modèle
Vous pouvez configurer l'optimiseur de modèle pour tous les frameworks pris en charge à la fois ou pour un framework à la fois. Choisissez l'option qui correspond le mieux à vos besoins. Si vous voyez des messages d'erreur, assurez-vous que toutes les dépendances sont installées.
Important : un accès Internet est requis pour effectuer avec succès les étapes suivantes. Si vous ne pouvez accéder à Internet que via un serveur proxy, assurez-vous qu'il est correctement configuré dans votre environnement.
Veuillez noter:
OpenVINO
Si vous souhaitez utiliser à partir d'une autre version installée de celle que vous avez installée模型优化器
,openvino_2021
remplacez paropenvino_<version>
, où<version>
est la version souhaitée.- Si vous effectuez
OpenVINO
l'installation dans un répertoire d'installation autre que celui par défaut,C:\Program Files (x86)\Intel
remplacez-le par le répertoire dans lequel vous avez installé le logiciel.
Veuillez utiliser l'interface de ligne de commande pour exécuter les étapes suivantes afin de vous assurer que vous pouvez voir le message d'erreur lorsque l'erreur est à nouveau signalée :
- première option
- Ouvrez la ligne de commande (cmd.exe)
- Entrez dans le répertoire des scripts
cd C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer\install_prerequisites
- exécuter le script
install_prerequisites.bat
- deuxième option
- ouvrir la ligne de commande
- Entrez dans le répertoire des scripts
cd C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer\install_prerequisites
- Exécutez différents scripts de configuration pour différents frameworks et peuvent s'exécuter plusieurs fois (différents scripts)
- Cadre de café
install_prerequisites_caffe.bat
- TensorFlow 1.x
install_prerequisites_tf.bat
- TensorFlow 2.x
install_prerequisites_tf2.bat
- MXNet
install_prerequisites_mxnet.bat
- ONNX
install_prerequisites_onnx.bat
- gauche
install_prerequisites_kaldi.bat
- Cadre de café
Vous pouvez choisir l'une des deux options d'installation ci-dessus. Il est recommandé d'utiliser la première option, qui est pratique et rapide avec moins de temps d'exécution.
Flux de travail OpenVINO et essai de démonstration
Introduction aux composants OpenVINO
La boîte à outils se compose de trois composants principaux :
Model Optimizer
(Model Optimizer) : optimise le modèle pour l'architecture Intel et convertit le modèle dans un format compatible avec le moteur d'inférence. Ce format est appelé une représentation intermédiaire (IR).Intermediate Representation
(IR en abrégé) : sortie de l'optimiseur de modèle. Le modèle est converti dans un format optimisé pour l'architecture Intel, qui peut être consommé par le moteur d'inférence.- Moteur d'inférence : une bibliothèque de logiciels qui exécute l'inférence par rapport à un IR (modèle optimisé) pour générer des résultats d'inférence.
De plus, des scripts de démonstration, des exemples de code et des applications de démonstration sont fournis pour vous aider à vous familiariser avec la boîte à outils :
- Scripts de démonstration - Scripts par lots pour exécuter des pipelines d'inférence qui automatisent les étapes du flux de travail pour afficher différents scénarios.
- Échantillon de code - montre comment :
- Utilisez des fonctionnalités OpenVINO spécifiques dans votre application.
- Effectuez des tâches spécifiques telles que le chargement de modèles, l'exécution d'inférences, l'interrogation de capacités d'appareils spécifiques, etc.
- Applications de démonstration - Applications de console qui fournissent de puissants modèles d'application pour vous aider à mettre en œuvre des scénarios d'apprentissage en profondeur spécifiques. Ces applications impliquent des pipelines de traitement de plus en plus complexes qui collectent des données d'analyse à partir de plusieurs modèles exécutant l'inférence simultanément, comme la détection d'une personne dans un flux vidéo et la détection des attributs physiques d'une personne tels que l'âge, le sexe et l'état émotionnel.
Flux de travail OpenVINO
Le flux de travail OpenVINO simplifié est :
- Obtenez des modèles préformés capables d'effectuer des tâches d'inférence telles que la détection des piétons, la détection des visages, la détection des véhicules, la reconnaissance des plaques d'immatriculation et la pose de la tête
- Exécutez le modèle pré-formé, passez
Model Optimizer
, convertissez le modèle en une forme intermédiaire (Intermediate Representation
, pour faire courtIR
), incluant une paire de fichiers et de fichiersIR
comme entrée du moteur d'inférence.xml
.bin
- Utilisez le moteur d'inférence dans l'application pour exécuter l'inférence
API
surIR
(modèles optimisés) et générer les résultats d'inférence. L'application peut être unOpenVINO
exemple ou votre propre application.
lancer la démo
OpenVINO
Le script Run Demo intégré se trouve ici <INSTALL_DIR>\deployment_tools\demo
et peut servir OpenVINO
d'exemple simple de flux de travail à comprendre. Ces scripts automatisent les processus de workflow et illustrent les pipelines d'inférence pour différents scénarios. Le contenu principal de la démonstration est :
- Compiler plusieurs fichiers d'instance à partir de
OpenVINO
fichiers intégrés de composants - Télécharger le modèle pré-entraîné
- Exécuter les étapes et afficher les résultats dans la console
Les exemples de scripts peuvent être exécutés sur n'importe quel appareil remplissant les conditions. L'inférence est utilisée par défaut et d'autres périphériques d'inférence CPU
peuvent être spécifiés à l'aide de paramètres. Par exemple, les instructions générales sont les suivantes :-d
GPU
.<script_name> -d [CPU, GPU, MYRIAD, HDDL]
Un exemple de script pour le pipeline d'inférence,
situé C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\demo\demo_security_barrier_camera.py
dans ce document, utilise la reconnaissance de véhicule, où les attributs de véhicule s'appuient les uns sur les autres pour affiner des attributs spécifiques.
Le contenu principal du script :
- Téléchargez trois modèles IR pré-entraînés
- Créer l'application de démonstration de caméra de sécurité
- Exécutez le programme pour démontrer le processus d'inférence à l'aide du modèle téléchargé et d'exemples d'images
Fonctions principales de l'application :
- Identifier les objets étiquetés comme véhicules
- Utilisez l'identification du véhicule comme entrée dans un deuxième modèle qui reconnaît les attributs spécifiques du véhicule, y compris les plaques d'immatriculation. .
- Utilisez la plaque d'immatriculation comme entrée pour un troisième modèle qui reconnaît les lettres et les chiffres de la plaque d'immatriculation
Exécutez le script :
# 进入示例脚本保存目录
cd C:\"Program Files (x86)"\Intel\openvino_2021\deployment_tools\demo\
# 运行示例脚本
.\demo_security_barrier_camera.bat
Pendant l'exécution du script, il accédera au réseau pour télécharger le modèle et d'autres dépendances. Lorsque le script est exécuté, la fenêtre de reconnaissance d'image apparaîtra comme indiqué ci-dessous :