OpenVINO概述

主要特点:

在Intel平台上提升计算机视觉相关深度学习性能达19倍以上
解除CNN-based的网络在边缘设备的性能瓶颈
对OpenCV,OpenXV*视觉库的传统API实现加速与优化
基于通用API接口在CPU、GPU、FPGA等设备上运行加上
OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)和(Model Optimizer)。

模型优化器(Model Optimizer)
模型优化器(Model Optimizer)将给定的模型转化为标准的 Intermediate Representation (IR) ,并对模型优化。
模型优化器支持的深度学习框架:

ONNX
TensorFlow
Caffe
MXNet
Kaldi


推断引擎(Inference Engine)
推断引擎(Inference Engine)支持硬件指令集层面的深度学习模型加速运行,同时对传统的OpenCV图像处理库也进行了指令集优化,有显著的性能与速度提升。
支持的硬件设备:

CPU
GPU
FPGA
VPU


 

猜你喜欢

转载自www.cnblogs.com/ybqjymy/p/12652765.html