序文
注意: この映画のドキュメントは公式ドキュメントと私が実際にインストールした作業を翻訳したものですが、レベルが限られているため、不適切な点があればメッセージを残して修正してください。
このガイドは に適用されますMicrosoft Windows* 10 64 位
。オペレーティング システムの情報と手順については、インストール ガイドをLinux*
参照してください。Linux
ヒント:
OpenVINO™
Deep Learning Workbench ( )DL Workbench
内の Model Optimizer を使用すると、すぐに開始できます。は、モデルのインポート、パフォーマンスと精度の分析、出力の視覚化、さまざまなインテル® プラットフォームへの展開に向けたモデルの最適化と準備を行うことができるユーザー インターフェイスですDL Workbench
。OpenVINO™
導入
重要なヒント:
- 特に指定がない限り、このガイドのすべての手順に従う必要があります
- すべての構成を完了するには、インストール パッケージのダウンロードに加えて、依存関係もインストールする必要があります。
インストールを完了するには、次の手順をすべて実行します。
-
Intel® OpenVINO™
コアツールパッケージをインストールする -
依存するツールとソフトウェアをインストールする
Microsoft Visual Studio* 2019 with MSBuild
CMake 3.14 or higher 64-bit
Python 3.6 - 3.8 64-bit
重要な注意事項: インストール プロセスの一環として、
Python
依存関係をインストールするときに必ずAdd Python 3.x to PATH
[インストールPython
パスを環境変数に追加する] をオンにしてくださいPATH
。 -
環境変数を設定する
-
モデル オプティマイザーの構成 (
Model Optimizer
) -
オプションのインストール手順:
windows
バージョンIntel® Graphics
ドライバーをインストールする- を使用して( Vision Accelerator Design)
Intel® Movidius™ VPU
のドライバーとソフトウェアをインストールします。Intel® Vision Accelerator Design
intel
- 環境変数を更新します
Windows*
(インストールPython
中にチェックされなかった場合、add Python to the path
この手順は必須です)
さらに、このガイドでは次の手順についても説明します。
- コードサンプルと入門デモ
- アンインストール
OpenVINO™
ツールキット
インテル OpenVINO™ ツールキットの概要
OpenVINO™
Toolkit は、人間の視覚のシミュレーション、自動音声認識、自然言語処理、レコメンダー システムなど、さまざまなタスクに対処するアプリケーションとソリューションを迅速に開発するための包括的なツールキットです。このツールキットは、畳み込みニューラル ネットワーク ( )、リカレント ネットワーク、アテンションベース ネットワークなどの最新世代の人工ニューラル ネットワークに基づいてCNN
、インテル® ハードウェア全体でコンピューター ビジョンと非ビジョンのワークロードを拡張し、パフォーマンスを最大化します。エッジ ホストからクラウド デプロイメントまで、高性能、人工知能、ディープ ラーニング推論を使用してアプリケーションを高速化します。詳しくは詳細ページをご覧ください
OpenVINOの配布機能
このガイドでは、Windows* 10
オペレーティング システム用のOpenVINO
ツールキット配布の主な利点に焦点を当てています。次のような利点があります。
CNN
エッジ コンピューティングに基づいたディープ ラーニング推論を可能にするIntel® CPU
、Intel® GPU
、Intel® Neural Compute Stick 2
およびIntel® Vision Accelerator Design
を使用したIntel® Movidius™ VPU
異種実行をサポートします。- コンピュータビジョン機能の使いやすいライブラリと事前に最適化されたカーネルにより、市場投入までの時間を短縮します。
- コンピュータ ビジョン標準への最適化された呼び出しが含まれます
OpenCV*
。OpenCL™
OpenVINO コンポーネント
このインストールにはデフォルトで次のコンポーネントが含まれています
コンポーネント | 説明する |
---|---|
モデルオプティマイザー | このツールは、一般的なフレームワークでトレーニングされたモデルを、Intel ツール、特に推論エンジンで使用できる形式にインポート、変換、最適化します。注: 一般的なフレームワークには、Caffe*、TensorFlow*、MXNet*、ONNX* などのフレームワークが含まれます。 |
推論エンジン | これは深層学習モデルを実行するエンジンであり、推論をアプリケーションに簡単に統合できる一連の依存ライブラリが含まれています。 |
OpenCV* | インテル® ハードウェア用にコンパイルされた OpenCV* コミュニティー・バージョン |
推論エンジンのサンプル | アプリケーションでインテルの深層学習推論エンジンを使用する方法を説明する一連のシンプルなコンソール アプリケーション。。 |
デモ | 特定のユースケースを解決するためにアプリケーションで推論エンジンを使用する方法を示す一連のコンソール アプリケーション |
追加のツール | 精度チェッカー ユーティリティ、トレーニング後の最適化ツールのガイド、モデル ダウンローダーなどを含むモデル用のツール セット |
事前トレーニング済みモデルのドキュメント | 事前トレーニング済みモデルのドキュメントは Open Model Zoo リポジトリで入手可能 |
システム要求
ハードウェア要件
- 第 6 世代から第 11 世代までのインテル® Core™ プロセッサーおよびインテル® Xeon® プロセッサー
- 第 3 世代インテル® Xeon® スケーラブル プロセッサー (以前のコード名
Cooper Lake
) - インテル® Xeon® スケーラブル プロセッサー (以前
Skylake
およびCascade Lake
- インテル® ストリーミング SIMD エクステンション 4.1 (インテル® SSE4.1) をサポートするインテル Atom® プロセッサー
- インテル Pentium® プロセッサー N4200/5、N3350/5 または N3450/5 (インテル® HD グラフィックス搭載)
- インテル® Iris® Xe MAX グラフィックス
- インテル® ニューラル コンピューティング スティック 2(
Neural Compute Stick 2
) - インテル® Movidius™ VPU を使用したインテル® ビジョン・アクセラレーター・デザイン (
Vision Accelerator Design
)
注:
OpenVINO™ 2020.4
サポートされなくなりましたIntel® Movidius™ Neural Compute Stick
。
プロセッサーについて:
オペレーティング·システム
Microsoft Windows* 10 64-bit
ソフトウェア要件
Microsoft Visual Studio* with C++ 2019 or 2017 with MSBuild
ダウンロードリンクCMake 3.10 or higher 64-bit
注: を使用する必要がある場合は
Microsoft Visual Studio 2019
、 をインストールする必要がありますCMake 3.14
。ダウンロード リンクPython 3.6 - 3.8 64-bit
ダウンロードリンク
インストール手順
ハードウェアが上記のシステム要件を満たしていること、およびソフトウェアの依存関係がインストールされていることを確認して
Microsoft Vusual Studio
くださいCMake
。
Intel® または OpenVINO™ ツールキットのコア コンポーネントをインストールする
-
OpenVINO™ ツールキットのインテル® ディストリビューションをまだダウンロードしていない場合は、ここをクリックしてダウンロードしてください。ダウンロードされたインストール パッケージのデフォルトのファイル名は です
w_openvino_toolkit_p_<version>.exe
。
推奨事項: オペレーティング システム、リリース バージョン、ソフトウェア バージョン、およびインストール方法を上から下に選択します。推奨オプションは次のとおりです: 、 、 、
Windows
つまりWeb & Local 2021.3
、プラットフォームLocal
に適用できるバージョンを選択しますWindows
2021.3
本地安装包
-
インストール パッケージをダブルクリックすると、インストール インターフェイスがポップアップ表示され、インストール パスを選択できます。デフォルトのインストール パスは、操作を簡素化するために、
C:\Program Files (x86)\Intel\openvino_<version>
同時にこのインストール ディレクトリを指すショートカットが作成されます。C:\Program Files (x86)\Intel\openvino_2021
別のパスを選択すると、ショートカットも作成されます注: OpenVINO™ ツールが以前にシステムにインストールされている場合、このインストールでは既存のインストール パスを使用して再インストールします。この新しいバージョンを別のパスにインストールする必要がある場合は、古いバージョンをアンインストールする必要があります
-
next
ソフトウェアによる使用状況情報の収集と送信を許可するかどうかをクリックして選択し、ランダムに 1 つを選択して、next
-
外部依存関係が欠落している場合は、警告画面が表示されます。不足している依存関係を言います。現時点では、お客様側でこれ以上のアクションは必要ありません。
Intel® Distribution of OpenVINO™
ツールキットのコア コンポーネントをインストールした後、不足している依存関係をインストールします。以下のスクリーンショットは、2 つの依存関係が欠落していることを示しています (3 つの警告が表示されます。中央の GPU は無視できます。欠落している 2 つの依存関係は と である必要がありますPython
)CMake
。
-
「次へ」をクリックすると、次のスクリーンショットが表示されます。これは、最初の部分のインストールが完了したことを意味します。
依存関係をインストールする
前述したように、MS Visual Studio と CMake がインストールされているため、この手順をスキップして配置环境变量
モジュールに進みます。
- ダウンロードリンクをインストールする
Microsoft Visual Studio* with C++ 2019 or 2017 with MSBuild
- インストール.ダウンロードリンク
CMake 3.14
_
環境変数を構成する
C:\Program Files (x86)\Intel
注: OpenVINO をデフォルト以外のインストール パスにインストールする場合、次の構成コマンドを実行すると、現在のインストール パスが置き換えられます。
OpenVINO
アプリケーションをコンパイルして実行する前に、いくつかの環境変数を更新する必要があります。コマンド プロンプトを開き、setupvars.bat
バッチ ファイルを実行して環境変数を一時的に設定します。
C:\Program Files (x86)\Intel\openvino_2021\bin\setupvars.bat
実行結果は次のとおりです。
C:\Users\aoto>C:\"Program Files (x86)"\Intel\openvino_2021\bin\setupvars.bat
Python 3.6.8
[setupvars.bat] OpenVINO environment initialized
重要な注意: この構成スクリプトを実行するために Windows PowerShell* を使用することはお勧めできません。コマンド ライン ツールを使用することをお勧めします。
環境変数が設定されているので、設定します。Model Optimizer
構成Model Optimizer
重要な注意: これらの手順は必須です。少なくとも 1 つのフレームワークに対してモデル オプティマイザーを構成する必要があります。このセクションの手順を完了しないと、モデル オプティマイザーは失敗します。
モデルオプティマイザーの説明
モデル・オプティマイザーは、OpenVINO
インテル® ディストリビューション・オブ・ツールキットの重要なコンポーネントです。モデル オプティマイザーを介してモデルを実行せずに、トレーニングされたモデルで推論を実行することはできません。モデル オプティマイザーを通じて事前トレーニングされたモデルを実行すると、出力はネットワークの中間表現 (IR) になります。IR は、モデル全体を記述する 1 対のファイルです。
- .xml: ネットワーク トポロジの説明
- .bin: 重みとバイアスを含むバイナリ データ
推論エンジンは、 またはCPU
ハードウェア全体でファイルの読み取り、ロード、および推論を使用します。GPU
VPU
通用 API
IR
Model Optimizer は、に基づくPython
コマンド ライン ツール ( ) です。、、 、などの一般的なディープ ラーニング フレームワークでトレーニングされたモデルに対してこのツールを使用すると、推論エンジンで使用できる最適化された形式に変換できます。mo.py
C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer
Caffe
TensorFlow
MXNet
ONNX
IR
このセクションでは、スクリプトを使用して、サポートされているすべてのフレームワークまたは単一のフレームワークに対してモデル オプティマイザーを同時に構成する方法について説明します。スクリプトを使用する代わりにモデル オプティマイザーを手動で構成する場合は、「モデル オプティマイザーの構成」ページの「手動構成プロセスの使用」セクションを参照してください。
モデル オプティマイザーの詳細については、『モデル オプティマイザー開発者ガイド』を参照してください。
モデル オプティマイザーの構成手順
モデル オプティマイザーは、サポートされているすべてのフレームワークに対して一度に構成することも、一度に 1 つのフレームワークに対して構成することもできます。ニーズに最適なオプションをお選びください。エラー メッセージが表示された場合は、すべての依存関係がインストールされていることを確認してください。
重要: 次の手順を正常に実行するには、インターネット アクセスが必要です。プロキシ サーバー経由でのみインターネットにアクセスできる場合は、プロキシ サーバーが環境内で適切に構成されていることを確認してください。
ご注意ください:
- インストール済み
OpenVINO
の の別のインストール済みバージョンから使用する場合は模型优化器
、openvino_2021
を に置き換えますopenvino_<version>
。ここで、<version>
は目的のバージョンです。OpenVINO
デフォルト以外のインストール ディレクトリにインストールする場合は、C:\Program Files (x86)\Intel
ソフトウェアをインストールしたディレクトリに置き換えます。
コマンド ライン インターフェイスを使用して次の手順を実行し、エラーが再度報告されたときにエラー メッセージが表示されることを確認してください。
- オプション 1
- コマンドライン(cmd.exe)を開きます。
- スクリプトディレクトリに入る
cd C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer\install_prerequisites
- スクリプトを実行する
install_prerequisites.bat
- オプション 2
- コマンドラインを開く
- スクリプトディレクトリに入る
cd C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer\install_prerequisites
- 異なるフレームワークに対して異なる構成スクリプトを実行し、複数回実行できます (異なるスクリプト)
- カフェフレームワーク
install_prerequisites_caffe.bat
- TensorFlow 1.x
install_prerequisites_tf.bat
- TensorFlow 2.x
install_prerequisites_tf2.bat
- MXネット
install_prerequisites_mxnet.bat
- ONNX
install_prerequisites_onnx.bat
- 左
install_prerequisites_kaldi.bat
- カフェフレームワーク
上記の 2 つのインストール オプションのいずれかを選択できますが、実行時間が短くて便利なオプション 1 を使用することをお勧めします。
OpenVINO ワークフローとデモの試行
OpenVINO コンポーネントの概要
ツールキットは 3 つの主要コンポーネントで構成されます。
Model Optimizer
(モデルオプティマイザー): Intel アーキテクチャ向けにモデルを最適化し、モデルを推論エンジンと互換性のある形式に変換します。この形式は中間表現 (IR) と呼ばれます。Intermediate Representation
(略して IR): モデル オプティマイザーの出力。モデルは、Intel アーキテクチャに最適化された形式に変換され、推論エンジンで使用できます。- 推論エンジン: IR (最適化モデル) に対して推論を実行して推論結果を生成するソフトウェア ライブラリ。
さらに、ツールキットを立ち上げて実行するのに役立つデモ スクリプト、コード サンプル、およびデモ アプリケーションが提供されています。
- デモ スクリプト - ワークフロー ステップを自動化してさまざまなシナリオを表示する推論パイプラインを実行するバッチ スクリプト。
- コードサンプル - 次の方法を示します。
- アプリケーションで特定の OpenVINO 機能を使用します。
- モデルの読み込み、推論の実行、特定のデバイス機能のクエリなどの特定のタスクを実行します。
- デモ アプリケーション - 特定の深層学習シナリオの実装に役立つ強力なアプリケーション テンプレートを提供するコンソール アプリケーション。これらのアプリケーションには、ビデオ ストリーム内の人物の検出や、年齢、性別、感情状態などの人物の身体的属性の検出など、推論を同時に実行する複数のモデルから分析データを収集する、ますます複雑な処理パイプラインが含まれます。
OpenVINO ワークフロー
簡略化された OpenVINO ワークフローは次のとおりです。
- 歩行者検出、顔検出、車両検出、ナンバープレート認識、頭姿勢などの推論タスクを実行できる事前トレーニング済みモデルを取得します。
- 事前トレーニングされたモデルを実行し、 を渡し
Model Optimizer
、モデルを中間形式 (Intermediate Representation
略してIR
) に変換します。これには、IR
推論エンジンの入力として.xml
ファイルと.bin
ファイルのペアが含まれます。 - アプリケーション内の推論エンジンを使用して、(最適化されたモデル)
API
に対して推論を実行し、推論結果を出力します。IR
アプリケーションはOpenVINO
サンプルでも、独自のアプリケーションでも構いません。
デモを実行する
OpenVINO
組み込みの Run Demo スクリプトはここにあり、理解するためのワークフローの簡単な例<INSTALL_DIR>\deployment_tools\demo
として役立ちます。OpenVINO
これらのスクリプトはワークフロー プロセスを自動化し、さまざまなシナリオの推論パイプラインを示します。デモンストレーションの主な内容は次のとおりです。
OpenVINO
コンポーネントの組み込みファイルから複数のインスタンス ファイルをコンパイルする- 事前トレーニング済みモデルをダウンロードする
- 手順を実行し、結果をコンソールに表示します。
サンプル スクリプトは、条件を満たす任意のデバイスで実行できます。推論はデフォルトで使用され、他の推論デバイスはパラメータCPU
を使用して指定できます。たとえば、一般的な手順は次のとおりです。-d
GPU
.<script_name> -d [CPU, GPU, MYRIAD, HDDL]
このドキュメントにある推論パイプラインのサンプル スクリプトC:\Program Files (x86)\Intel\openvino_2021\deployment_tools\demo\demo_security_barrier_camera.py
では、車両認識を使用しており、車両の属性が相互に構築されて特定の属性が絞り込まれます。
スクリプトの主な内容:
- 3 つの事前トレーニング済み IR モデルをダウンロードする
- セキュリティカメラのデモアプリケーションを構築する
- プログラムを実行して、ダウンロードしたモデルとサンプル画像を使用して推論プロセスをデモンストレーションします。
アプリの主な機能:
- 車両としてラベル付けされたオブジェクトを識別する
- 車両 ID を、ナンバー プレートなどの特定の車両属性を認識する 2 番目のモデルへの入力として使用します。。
- ナンバー プレート上の文字と数字を認識する 3 番目のモデルへの入力としてナンバー プレートを使用します。
スクリプトを実行します。
# 进入示例脚本保存目录
cd C:\"Program Files (x86)"\Intel\openvino_2021\deployment_tools\demo\
# 运行示例脚本
.\demo_security_barrier_camera.bat
スクリプトの実行中、ネットワークにアクセスしてモデルやその他の依存関係をダウンロードします。スクリプトが実行されると、次のような画像認識ウィンドウが表示されます。