Installer l'environnement Intel OpenVINO sur Windows 10

avant-propos

Rappel : Le document de ce film est traduit du document officiel et de mon opération d'installation actuelle. En raison du niveau limité, vous êtes invités à laisser un message et à me corriger en cas d'inadéquation.

Ce guide s'applique à Microsoft Windows* 10 64 位. Linux*Consultez Linuxle guide d'installation pour obtenir des informations et des instructions sur le système d'exploitation .

Conseil : vous pouvez utiliser l'optimiseur de modèle dans OpenVINO™Deep Learning Workbench ( ) pour démarrer rapidement. est une interface utilisateur qui vous permet d'importer des modèles, d'analyser leurs performances et leur précision, de visualiser les résultats, d'optimiser et de préparer des modèles pour le déploiement sur diverses plates-formes Intel®.DL WorkbenchDL WorkbenchOpenVINO™

introduire

indice important :

  • Sauf indication contraire, toutes les étapes de ce guide doivent être suivies
  • En plus de télécharger le package d'installation, les dépendances doivent également être installées pour terminer toutes les configurations

Effectuez toutes les étapes suivantes pour terminer l'installation :

  1. Installer Intel® OpenVINO™le package d'outils de base

  2. Installer les outils et logiciels dépendants

    • Microsoft Visual Studio* 2019 with MSBuild
    • CMake 3.14 or higher 64-bit
    • Python 3.6 - 3.8 64-bit

    Remarque importante : dans le cadre du processus d'installation, assurez-vous de cocher Ajouter le chemin d'installation aux variables d'environnement Pythonlors de l'installation des dépendances .Add Python 3.x to PATHPythonPATH

  3. définir des variables d'environnement

  4. Configurer l'optimiseur de modèle ( Model Optimizer)

  5. Étapes d'installation facultatives :

    • Installer windowsla version Intel® Graphicsdu pilote
    • Installez les pilotes et le logiciel Intel® Movidius™ VPUpour Intel® Vision Accelerator Design( Vision Accelerator Design) en utilisantintel
    • Mettre à jour Windows*les variables d'environnement ( cette étape est obligatoire si elle Pythonn'est pas cochée lors de l'installation)add Python to the path

En outre, ce guide couvre également les étapes suivantes :

  • Exemples de code et démonstrations de démarrage
  • Désinstaller OpenVINO™la boîte à outils

Présentation de la boîte à outils Intel OpenVINO™

OpenVINO™Toolkit est une boîte à outils complète pour le développement rapide d'applications et de solutions qui traitent une variété de tâches, y compris la simulation de la vision humaine, la reconnaissance automatique de la parole, le traitement du langage naturel, les systèmes de recommandation, etc. Basé sur la dernière génération de réseaux de neurones artificiels, y compris les réseaux de neurones convolutifs ( CNN), les réseaux récurrents et les réseaux basés sur l'attention, la boîte à outils fait évoluer les charges de travail de vision par ordinateur et de non-vision sur le matériel Intel® pour optimiser les performances. Il accélère les applications grâce à l'intelligence artificielle hautes performances et à l'inférence d'apprentissage en profondeur des hôtes périphériques aux déploiements dans le cloud. Pour plus de détails, voir la page de détails

Fonctionnalités de distribution OpenVINO

Ce guide se concentre sur les principaux avantages de la distribution du kit d'outils pour Windows* 10votre système d'exploitation , notamment :OpenVINO

  • Activer CNNl'inférence d'apprentissage en profondeur basée sur l'informatique de pointe
  • Prend en charge l'exécution hétérogène entre Intel® CPU, Intel® GPUet Intel® Neural Compute Stick 2avecIntel® Vision Accelerator DesignIntel® Movidius™ VPU
  • Accélérez la mise sur le marché avec une bibliothèque facile à utiliser de fonctions de vision par ordinateur et des noyaux pré-optimisés
  • Comprend des appels optimisés aux normes de vision par ordinateur, y compris OpenCV*etOpenCL™

Composants OpenVINO

Cette installation inclut les composants suivants par défaut

Composants décrire
Optimiseur de modèle L'outil importe, convertit et optimise les modèles formés dans des frameworks populaires dans un format utilisable par les outils Intel, en particulier le moteur d'inférence. Remarque : les frameworks populaires incluent des frameworks tels que Caffe*, TensorFlow*, MXNet* et ONNX*.
Moteur d'inférence Il s'agit du moteur qui exécute des modèles d'apprentissage en profondeur et comprend un ensemble de bibliothèques dépendantes qui facilitent l'intégration de l'inférence dans les applications.
CV ouvert* Version de la communauté OpenCV* compilée pour le matériel Intel®
Exemples de moteur d'inférence Un ensemble d'applications de console simples qui montrent comment utiliser le moteur d'inférence Deep Learning d'Intel dans vos applications. .
Démos Un ensemble d'applications de console qui montrent comment utiliser le moteur d'inférence dans des applications pour résoudre des cas d'utilisation spécifiques
Outils supplémentaires Un ensemble d'outils pour les modèles, y compris un utilitaire de vérification de la précision, un guide des outils d'optimisation post-formation, un téléchargeur de modèles, etc.
Documentation pour les modèles pré-entraînés Documentation pour les modèles pré-entraînés disponible dans le référentiel Open Model Zoo

Configuration requise

Exigences matérielles

  • Processeurs Intel® Core™ de 6e à 11e génération et processeurs Intel® Xeon®
  • Processeurs évolutifs Intel® Xeon® de 3e génération (anciennement nom de code Cooper Lake)
  • Processeurs évolutifs Intel® Xeon® ( anciennement SkylakeetCascade Lake
  • Processeur Intel Atom® avec prise en charge des extensions Intel® Streaming SIMD 4.1 (Intel® SSE4.1)
  • Processeur Intel Pentium® N4200/5, N3350/5 ou N3450/5 avec Intel® HD Graphics
  • Graphiques Intel® Iris® Xe MAX
  • Intel® Neural Compute Stick 2( Neural Compute Stick 2)
  • Conception d'accélérateur de vision Intel® avec VPU Intel® Movidius™ ( Vision Accelerator Design)

Remarque : OpenVINO™ 2020.4n'est plus pris en charge Intel® Movidius™ Neural Compute Stick.

À propos du processeur :

  • Tous les processeurs n'incluent pas de graphiques de processeur. Pour plus d'informations sur le processeur, reportez-vous à la section Spécifications du processeur. lien détaillé
  • Si vous utilisez un processeur Intel Xeon, vous aurez besoin d'un chipset prenant en charge les graphiques du processeur. Pour plus d'informations sur votre chipset, consultez Spécifications du chipset. détails

système opérateur

Microsoft Windows* 10 64-bit

Logiciels requis

étapes d'installation

Veuillez vous assurer que votre matériel répond aux exigences système ci-dessus, les dépendances logicielles telles que Microsoft Vusual Studioet CMakeont été installées

Installez les composants principaux de la boîte à outils Intel® of OpenVINO™

  1. Si vous n'avez pas téléchargé la boîte à outils Intel® Distribution of OpenVINO™, cliquez ici pour la télécharger . Le nom de fichier par défaut du package d'installation téléchargé est w_openvino_toolkit_p_<version>.exe.
    insérez la description de l'image ici

    Recommandation : sélectionnez le système d'exploitation, la version, la version du logiciel et la méthode d'installation de haut en bas. Les options recommandées sont : Windows, Web & Local 2021.3, , c'est-à-dire sélectionnez la version Localapplicable à Windowsla plate-forme2021.3本地安装包

  2. Double-cliquez sur le package d'installation, l'interface d'installation apparaîtra et vous laissera choisir le chemin d'installation, le chemin d'installation par défaut est , C:\Program Files (x86)\Intel\openvino_<version>pour simplifier l'opération, un raccourci sera créé pour pointer vers ce répertoire d'installation en même temps C:\Program Files (x86)\Intel\openvino_2021, si vous choisissez un autre chemin, le raccourci sera également créé

    Remarque : Si l'outil OpenVINO™ a déjà été installé sur votre système, cette installation utilisera le chemin d'installation existant pour l'installer à nouveau. Si vous devez installer cette nouvelle version dans un autre chemin, vous devez désinstaller l'ancienne version.

  3. Cliquez nextpour choisir d'autoriser ou non le logiciel à collecter et envoyer des informations d'utilisation, choisissez-en une au hasard, puis cliquez surnext

  4. S'il vous manque des dépendances externes, vous verrez un écran d'avertissement. dit vos dépendances manquantes. Aucune autre action n'est requise de votre part pour le moment. Après avoir installé Intel® Distribution of OpenVINO™les composants principaux de la boîte à outils, installez les dépendances manquantes. La capture d'écran ci-dessous montre qu'il vous manque deux dépendances (affiche trois avertissements, le GPU au milieu peut être ignoré, les deux dépendances manquantes doivent être Pythonet CMake):
    insérez la description de l'image ici

  5. Cliquez sur suivant, et lorsque la capture d'écran suivante apparaît, cela signifie que l'installation de la première partie est terminée.
    insérez la description de l'image ici

installer les dépendances

Comme mentionné précédemment, MS Visual Studio et CMake ont été installés, ignorez cette étape et accédez au 配置环境变量module

  1. installer Microsoft Visual Studio* with C++ 2019 or 2017 with MSBuild le lien de téléchargement
  2. Installer.Lien de téléchargement CMake 3.14_

Configurer les variables d'environnement

C:\Program Files (x86)\IntelRemarque : Si vous installez OpenVINO dans un chemin d'installation autre que celui par défaut, votre chemin d'installation actuel sera remplacé lors de l'exécution des commandes de configuration suivantes .

Vous devez mettre à jour plusieurs variables d'environnement avant de compiler et d'exécuter OpenVINOl'application. Ouvrez une invite de commande et exécutez setupvars.batun fichier batch pour définir temporairement vos variables d'environnement :
C:\Program Files (x86)\Intel\openvino_2021\bin\setupvars.bat
les résultats d'exécution sont les suivants

C:\Users\aoto>C:\"Program Files (x86)"\Intel\openvino_2021\bin\setupvars.bat
Python 3.6.8
[setupvars.bat] OpenVINO environment initialized

REMARQUE IMPORTANTE : Il n'est pas recommandé d'utiliser Windows PowerShell* pour exécuter ce script de configuration, l'outil de ligne de commande est recommandé.

Les variables d'environnement ont été définies, puis configurezModel Optimizer

configurationModel Optimizer

REMARQUE IMPORTANTE : ces étapes sont obligatoires. Vous devez configurer l'optimiseur de modèle pour au moins une infrastructure. Si vous ne suivez pas les étapes de cette section, l'optimiseur de modèle échouera.

Description de l'optimiseur de modèle

Model Optimizer est OpenVINOun composant clé de la distribution Intel® de Toolkit. Il n'est pas possible d'effectuer une inférence sur un modèle formé sans exécuter le modèle via l'optimiseur de modèle. Lorsque vous exécutez un modèle pré-entraîné via l'optimiseur de modèle, votre sortie est une représentation intermédiaire (IR) du réseau. L'IR est une paire de fichiers décrivant l'ensemble du modèle :

  • .xml : Description de la topologie du réseau
  • .bin : données binaires avec pondérations et biais

CPULe moteur d' inférence utilise des fichiers de lecture, de chargement et d'inférence à travers GPUou VPUdu matériel .通用 APIIR

Model Optimizer est un Pythonoutil de ligne de commande ( mo.py) basé sur C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer. Utilisez cet outil sur des modèles entraînés avec des cadres d'apprentissage en profondeur populaires tels que Caffe, TensorFlow, MXNetet ONNX, pour les convertir dans un IRformat optimisé pouvant être utilisé par les moteurs d'inférence.

Cette section explique comment utiliser des scripts pour configurer l'optimiseur de modèle pour tous les frameworks pris en charge ou pour un seul framework en même temps. Si vous souhaitez configurer manuellement l'optimiseur de modèle au lieu d'utiliser un script, consultez la section Utilisation du processus de configuration manuelle sur la page Configuration de l'optimiseur de modèle.

Pour plus d'informations sur l'optimiseur de modèle, consultez le Guide du développeur de l'optimiseur de modèle.

Étapes de configuration de l'optimiseur de modèle

Vous pouvez configurer l'optimiseur de modèle pour tous les frameworks pris en charge à la fois ou pour un framework à la fois. Choisissez l'option qui correspond le mieux à vos besoins. Si vous voyez des messages d'erreur, assurez-vous que toutes les dépendances sont installées.

Important : un accès Internet est requis pour effectuer avec succès les étapes suivantes. Si vous ne pouvez accéder à Internet que via un serveur proxy, assurez-vous qu'il est correctement configuré dans votre environnement.

Veuillez noter:

  • OpenVINOSi vous souhaitez utiliser à partir d'une autre version installée de celle que vous avez installée 模型优化器, openvino_2021remplacez par openvino_<version>, où <version>est la version souhaitée.
  • Si vous effectuez OpenVINOl'installation dans un répertoire d'installation autre que celui par défaut, C:\Program Files (x86)\Intelremplacez-le par le répertoire dans lequel vous avez installé le logiciel.

Veuillez utiliser l'interface de ligne de commande pour exécuter les étapes suivantes afin de vous assurer que vous pouvez voir le message d'erreur lorsque l'erreur est à nouveau signalée :

  • première option
    1. Ouvrez la ligne de commande (cmd.exe)
    2. Entrez dans le répertoire des scripts
      cd C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer\install_prerequisites
    3. exécuter le script
      install_prerequisites.bat
  • deuxième option
    • ouvrir la ligne de commande
    • Entrez dans le répertoire des scriptscd C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer\install_prerequisites
    • Exécutez différents scripts de configuration pour différents frameworks et peuvent s'exécuter plusieurs fois (différents scripts)
      • Cadre de café
        install_prerequisites_caffe.bat
      • TensorFlow 1.x
        install_prerequisites_tf.bat
      • TensorFlow 2.x
        install_prerequisites_tf2.bat
      • MXNet
        install_prerequisites_mxnet.bat
      • ONNX
        install_prerequisites_onnx.bat
      • gauche
        install_prerequisites_kaldi.bat

Vous pouvez choisir l'une des deux options d'installation ci-dessus. Il est recommandé d'utiliser la première option, qui est pratique et rapide avec moins de temps d'exécution.

Flux de travail OpenVINO et essai de démonstration

Introduction aux composants OpenVINO

La boîte à outils se compose de trois composants principaux :

  • Model Optimizer(Model Optimizer) : optimise le modèle pour l'architecture Intel et convertit le modèle dans un format compatible avec le moteur d'inférence. Ce format est appelé une représentation intermédiaire (IR).
  • Intermediate Representation(IR en abrégé) : sortie de l'optimiseur de modèle. Le modèle est converti dans un format optimisé pour l'architecture Intel, qui peut être consommé par le moteur d'inférence.
  • Moteur d'inférence : une bibliothèque de logiciels qui exécute l'inférence par rapport à un IR (modèle optimisé) pour générer des résultats d'inférence.

De plus, des scripts de démonstration, des exemples de code et des applications de démonstration sont fournis pour vous aider à vous familiariser avec la boîte à outils :

  • Scripts de démonstration - Scripts par lots pour exécuter des pipelines d'inférence qui automatisent les étapes du flux de travail pour afficher différents scénarios.
  • Échantillon de code - montre comment :
    • Utilisez des fonctionnalités OpenVINO spécifiques dans votre application.
    • Effectuez des tâches spécifiques telles que le chargement de modèles, l'exécution d'inférences, l'interrogation de capacités d'appareils spécifiques, etc.
  • Applications de démonstration - Applications de console qui fournissent de puissants modèles d'application pour vous aider à mettre en œuvre des scénarios d'apprentissage en profondeur spécifiques. Ces applications impliquent des pipelines de traitement de plus en plus complexes qui collectent des données d'analyse à partir de plusieurs modèles exécutant l'inférence simultanément, comme la détection d'une personne dans un flux vidéo et la détection des attributs physiques d'une personne tels que l'âge, le sexe et l'état émotionnel.

Flux de travail OpenVINO

Le flux de travail OpenVINO simplifié est :

  1. Obtenez des modèles préformés capables d'effectuer des tâches d'inférence telles que la détection des piétons, la détection des visages, la détection des véhicules, la reconnaissance des plaques d'immatriculation et la pose de la tête
  2. Exécutez le modèle pré-formé, passez Model Optimizer, convertissez le modèle en une forme intermédiaire ( Intermediate Representation, pour faire court IR), incluant une paire de fichiers et de fichiers IRcomme entrée du moteur d'inférence.xml.bin
  3. Utilisez le moteur d'inférence dans l'application pour exécuter l'inférence APIsur IR(modèles optimisés) et générer les résultats d'inférence. L'application peut être un OpenVINOexemple ou votre propre application.

lancer la démo

OpenVINOLe script Run Demo intégré se trouve ici <INSTALL_DIR>\deployment_tools\demoet peut servir OpenVINOd'exemple simple de flux de travail à comprendre. Ces scripts automatisent les processus de workflow et illustrent les pipelines d'inférence pour différents scénarios. Le contenu principal de la démonstration est :

  • Compiler plusieurs fichiers d'instance à partir de OpenVINOfichiers intégrés de composants
  • Télécharger le modèle pré-entraîné
  • Exécuter les étapes et afficher les résultats dans la console

Les exemples de scripts peuvent être exécutés sur n'importe quel appareil remplissant les conditions. L'inférence est utilisée par défaut et d'autres périphériques d'inférence CPUpeuvent être spécifiés à l'aide de paramètres. Par exemple, les instructions générales sont les suivantes :-dGPU
.<script_name> -d [CPU, GPU, MYRIAD, HDDL]

Un exemple de script pour le pipeline d'inférence,
situé C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\demo\demo_security_barrier_camera.pydans ce document, utilise la reconnaissance de véhicule, où les attributs de véhicule s'appuient les uns sur les autres pour affiner des attributs spécifiques.

Le contenu principal du script :

  • Téléchargez trois modèles IR pré-entraînés
  • Créer l'application de démonstration de caméra de sécurité
  • Exécutez le programme pour démontrer le processus d'inférence à l'aide du modèle téléchargé et d'exemples d'images

Fonctions principales de l'application :

  • Identifier les objets étiquetés comme véhicules
  • Utilisez l'identification du véhicule comme entrée dans un deuxième modèle qui reconnaît les attributs spécifiques du véhicule, y compris les plaques d'immatriculation. .
  • Utilisez la plaque d'immatriculation comme entrée pour un troisième modèle qui reconnaît les lettres et les chiffres de la plaque d'immatriculation

Exécutez le script :

# 进入示例脚本保存目录
cd C:\"Program Files (x86)"\Intel\openvino_2021\deployment_tools\demo\

# 运行示例脚本
.\demo_security_barrier_camera.bat

Pendant l'exécution du script, il accédera au réseau pour télécharger le modèle et d'autres dépendances. Lorsque le script est exécuté, la fenêtre de reconnaissance d'image apparaîtra comme indiqué ci-dessous :
insérez la description de l'image ici

Je suppose que tu aimes

Origine blog.csdn.net/LJX_ahut/article/details/118761535
conseillé
Classement