OpenVINO系列--intel solution

OpenVINO系列:
OpenVINO之一:OpenVINO概述
OpenVINO之二:Windows环境下OpenVINO安装与配置
OpenVINO之三:Linux环境下OpenVINO安装与配置

    OpenVINO是英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,支持各种英特尔平台的硬件加速器上进行深度学习,并且允许直接异构执行。 支持在Windows与Linux系统,Python/C++语言。

主要特点:

    在Intel平台上提升计算机视觉相关深度学习性能达19倍以上
    解除CNN-based的网络在边缘设备的性能瓶颈
    对OpenCV,OpenXV*视觉库的传统API实现加速与优化
    基于通用API接口在CPU、GPU、FPGA等设备上运行加上

OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)和(Model Optimizer)。
在这里插入图片描述
模型优化器(Model Optimizer)

模型优化器(Model Optimizer)将给定的模型转化为标准的 Intermediate Representation (IR) ,并对模型优化。
模型优化器支持的深度学习框架:

    ONNX
    TensorFlow
    Caffe
    MXNet
    Kaldi

推断引擎(Inference Engine)

推断引擎(Inference Engine)支持硬件指令集层面的深度学习模型加速运行,同时对传统的OpenCV图像处理库也进行了指令集优化,有显著的性能与速度提升。
支持的硬件设备:

    CPU
    GPU
    FPGA
    VPU

参考资料:
1 OpenVINO™ toolkit Documentation
2 Install Intel® Distribution of OpenVINO™ toolkit for Windows* 10
3 Install Intel® Distribution of OpenVINO™ toolkit for Linux*
4 Introduction to Intel® Deep Learning Deployment Toolkit
————————————————
版权声明:本文为CSDN博主「mingo_敏」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/shanglianlm/article/details/89286250

发布了8 篇原创文章 · 获赞 5 · 访问量 4万+

猜你喜欢

转载自blog.csdn.net/u010451780/article/details/105429318
今日推荐