Tengine 一个注重性能和兼容性的AI框架丨OPEN AI LAB

前段时间,Tensorflow官方提供的本地编译的方式在Arm嵌入式设备运行Tensorflow Lite,我在11月中旬,使用本地编译的方式编译二进制的Label_image, 对RK3288 以及树莓派上做了性能的测试。

A17与A53 MobilenNet V1(fp) 性能对比
A17与A53 MobilenNet V1(fp) 性能对比

从性能测试的结果来看,物美价平的树莓派其实性能并不弱。但是今天我想介绍一个我新发现并让我眼前一亮的框架Tengine.

Tengine 显著的优点是性能和兼容性,使用Tengine框架后运行性能可以得到大幅度的提升。

下图为MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比。我们可以看到Tengine 有显著的优势。

MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比
MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比

Tengine 框架有着非常好的模型兼容性,支持直接加载caffe/mxnet/tensorflow模型文件,而不需要事先转换,而且用户仅需编译就可以利用Tengine的加速Caffe和Tensorflow性能。

Tengine 不仅可以让分类网络的性能大大提升,连大家众所周知的MobileNet-SSD 网络也能提升它的性能。很多人都觉得树莓派的性能不足以hold住检测网络,但是如果用Tengine框架就可以做到。

即使是开源版是每一帧的检测耗时仅为 286.136ms,足以看出Tengine的性能非常强大。

开源版上每一帧的检测耗时仅为 286.136ms
开源版上每一帧的检测耗时仅为 286.136ms
GPU用半浮点精度float16的检测结果准确无误
GPU用半浮点精度float16的检测结果准确无误

有兴趣的朋友可以看一下Tengine GitHub的主页,最近还推出了跑MobileNet分类网络的Android App, 手机端就可以使用AI 程序。

https://github.com/OAID/Tengine/?csdn010701

https://github.com/OAID/Tengine-app/?csdn010701


关于OPEN AI LAB

OPEN AI LAB(开放智能实验室)于2016年12月成立,由Arm中国联合产业伙伴发起,致力于推动芯片、硬件、算法软件整个产业链的深度合作,加速人工智能产业化应用部署和应用场景边界拓展,为最终实现万物智能贡献力量。

业务合作:[email protected]

猜你喜欢

转载自blog.csdn.net/weixin_43476455/article/details/85989470
今日推荐