从pb模型到tflite?

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/SPESEG/article/details/100933732

今天实现了波形输入到输出,模型直接就是对波形处理,其实中间我用tf做了stft,感觉写的挺费劲的差不多比librosa库每帧多200ms,的确tf库挺慢的。但现在我不想顾这么多,能否试试是否能否加速或者再压缩为tflite?所以这篇的任务就是加速和转tflite。

经过我搜索发现,有的说引入ARM指令集加速,地址在此:百度百科指令集,但寡人也没看出来个什么鬼啊?

有的说算法加速,这个在我这里只有两种情况,1-减少tf计算的复杂度,一周时间,2-直接将stft/istft采用cpp或者Java来写,这个估计要花费两周时间,我推荐第2个,因为模型中有些东西是每次都用的常数,都放在模型中每次都要重新计算,不太好。

有的说量化模型,但我的pb模型在转化时已经进行了8位压缩,不知道算不算在内,可以尝试下,tflite的资料,资源在此:TensorFlow官方资料 试试也无妨,诱人的是人家说RNN可以加速3倍以上,不知道是不是吹牛逼,有没有普适性??

其他可优化的地方:1-模型参数可以少训练几次,但这样需要记录loss,也不麻烦;

2-是否可以512来进行?这样能减少时间吗?

补充一:我特么看了看TensorFlow的contrib下根本没有lite了,所以上面的第二个参考地址无效,官方已经移除了这个玩意。只能先参考bazel build的方法了,试试看了。补充:其实lite直接放在了tf

猜你喜欢

转载自blog.csdn.net/SPESEG/article/details/100933732