Tensorflow 将Freezed 过的pb文件转成tflite文件,并在手机上测试跑分

将Freezed 过的pb文件转成tflite文件,并在手机上测试跑分

└── CONTENTS 目录
    ├── 1. 使用Bazel编译转换工具toco
    ├── 2. 用toco转换*.pb模型为*.tflite模型
    ├── 3. [beta] 使用Bazel编译适用于Android的benchmark_model(tflite)工具
    ├── 3. 使用Bazel编译适用于Android的benchmark_model(tflite)工具
    ├── 4. adb shell + benchmark_model(tflite) 测试tflite模型
    └── 附录:测试及测试结果
本机环境:Ubuntu 16.04

1. 使用Bazel编译转换工具toco

(a) cd到tensorflow目录下(也即是换到tensorflow的workspace下)

此处依旧以本机环境和目录为例

unaguo@unaguo:~/backends/tensorflow/$ 
(b) Bazel编译toco
unaguo@unaguo:~/backends/tensorflow/$ bazel build tensorflow/contrib/lite/toco:toco

注意:第一个tensorflow是workspace的意思,前面不能加./


2. 用toco转换*.pb模型为*.tflite模型

unaguo@unaguo:~/backends/tensorflow/$ bazel-bin/tensorflow/contrib/lite/toco/toco \
  --input_file=/YOUR/PATH/TO/PBFILE/source.pb \
  --input_format=TENSORFLOW_GRAPHDEF \
  --output_format=TFLITE \
  --output_file=/YOUR/PATH/TO/TFLITEFILE/destination.tflite \
  --inference_type=FLOAT \
  --input_type=FLOAT \
  --input_arrays="input_1" \
  --output_arrays="proba/Sigmoid" \
  --input_shapes=1,512,512,3
注意:上述options中必须要自己修改的如下
Options Definitions
input_file 输入的pb文件名称(不需要加“”)
output_file 输出的pb文件名称(不需要加“”)
input_arrays 输入节点名称(可加可不加“”)
output_arrays 输出节点名称(可加可不加“”)
output_arrays 输出节点名称(可加可不加“”)(但是注意,名称中带有诸如“:0”的部分要去掉)
input_shapes 输入尺寸

3. [beta] 使用Bazel编译适用于Android的benchmark_model(tflite)工具

依旧在tensorflow的workspace下,参照 官方github上的教程 对适用于Android的benchmark_model(tflite)工具
官方上面写的是:
bazel build -c opt \
  --config=android_arm \
  --cxxopt='--std=c++11' \
  tensorflow/contrib/lite/tools/benchmark:benchmark_model
但是很遗憾,我这个版本的tensorflow没有专门在~/lite/tools/下专门摘出来的benchmark的文件夹。所以代码改一下:
unaguo@unaguo:~/backends/tensorflow/$ bazel build -c opt \
  --config=android_arm \
  --cxxopt='--std=c++11' \
  tensorflow/contrib/lite/tools:benchmark_model
把benchmark去掉就行。可以编译
但是很遗憾,报错:
ERROR: /home/unaguo/backends/tensorflow/tensorflow/core/BUILD:2891:1: C++ compilation of rule '//tensorflow/core:gpu_runtime_impl' failed (Exit 1)
tensorflow/core/common_runtime/gpu/gpu_debug_allocator.cc: In member function 'virtual void* tensorflow::GPUNanResetAllocator::AllocateRaw(size_t, size_t)':
tensorflow/core/common_runtime/gpu/gpu_debug_allocator.cc:176:27: error: 'nanf' is not a member of 'std'
                           std::nanf(""));
                           ^
tensorflow/core/common_runtime/gpu/gpu_debug_allocator.cc: In member function 'virtual void tensorflow::GPUNanResetAllocator::DeallocateRaw(void*)':
tensorflow/core/common_runtime/gpu/gpu_debug_allocator.cc:191:29: error: 'nanf' is not a member of 'std'
                             std::nanf(""));
                             ^
Target //tensorflow/contrib/lite/tools:benchmark_model failed to build
Use --verbose_failures to see the command lines of failed build steps.
那就用 --verbose_failures看一下报错。
ERROR: /home/unaguo/backends/tensorflow/tensorflow/contrib/lite/profiling/BUILD:41:1: C++ compilation of rule '//tensorflow/contrib/lite/profiling:profile_summarizer' failed (Exit 1): arm-linux-androideabi-gcc failed: error executing command
暂时看不懂。

3. 使用Bazel编译适用于Android的benchmark_model(tflite)工具

经过一个小时的乱操作,我编成功了,下面记录一下骚操作:
(a) 从github上的master分支上的/lite/tools上手动copy下来benchmark文件夹
上文提到我下的版本中没有benchmark文件夹,所以我考虑是版本不够新,所以决定手动copy下来整个benchmark文件夹。
…1 首先在本地/tensorflow/tensorflow/contrib/lite/tools文件夹下创建叫benchmark的文件夹
…2 然后一个一个拷贝 这个主页下的源码到本地这个benchmark的文件夹下,分别是:
BUILD
benchmark_main.cc
benchmark_model.cc
benchmark_model.h
benchmark_params.cc
benchmark_params.h
benchmark_tflite_model.cc
benchmark_tflite_model.h
command_line_flags.cc
command_line_flags.h
command_line_flags_test.cc
logging.h
因为我们不做IOS的高端产品,所以ios文件夹整个都不拷贝。
…3 README中的那句bazel build代码不求行,我参考了tf版 benchmark_model的bazel build:
unaguo@unaguo:~/backends/tensorflow/$ bazel build -c opt   --crosstool_top=//external:android/crosstool   --cpu=armeabi-v7a  --compiler='clang3.8'   --host_crosstool_top=@bazel_tools//tools/cpp:toolchain  --cxxopt='-std=c++11' --config monolithic   tensorflow/contrib/lite/tools/benchmark:benchmark_model
显示error:
tensorflow/core/platform/default/logging.cc:65: error: undefined reference to '__android_log_write'
找到tensorflow/core/platform/default/logging.cc:65中这第65行,把__android_log_write给他注释掉。 然后再编译:
unaguo@unaguo:~/backends/tensorflow/$ bazel build -c opt   --crosstool_top=//external:android/crosstool   --cpu=armeabi-v7a  --compiler='clang3.8'   --host_crosstool_top=@bazel_tools//tools/cpp:toolchain  --cxxopt='-std=c++11' --config monolithic   tensorflow/contrib/lite/tools/benchmark:benchmark_model
然后success。

4. adb shell + benchmark_model(tflite) 测试tflite模型

(a) 首先把benchmark_model(tflite)扔进手机中
你们知道我的~/tensorflow目录底下有adb的快捷方式的。
unaguo@unaguo:~/backends/tensorflow/$ ./adb push bazel-bin/tensorflow/contrib/lite/tools/benchmark/benchmark_model /data/local/tmp
(b) 进入adb调试
unaguo@unaguo:~/backends/tensorflow/$ ./adb shell
Z91:/ #
© 给/data/local/tmp/benchmark_model开权限
(有些手机不开好像也没什么事)
Z91:/ # chmod 777 /data/local/tmp/benchmark_model
(d) 把tflite模型丢进手机里
unaguo@unaguo:~/backends/tensorflow$ ./adb push /YOUR/PATH/TO/TFLITEFILE/test.tflite /data/local/tmp
(e) 给/data/local/tmp/test.tflite开权限
Z91:/ # chmod 777 /data/local/tmp/test.tflite
(f) 测试tflite模型
Z91:/ # /data/local/tmp/benchmark_model \
--graph=/data/local/tmp/test.tflite \
--input_layer="input_1" \
--input_layer_shape="1,512,512,3" \
--input_layer_type="float" \
--output_layer="proba/Sigmoid:0" \
--show_run_order=false \
--show_time=false \
--show_memory=true \
--show_summary=true \
--show_flops=true \
--max_num_runs=50

output_layer的名称中有没有:0似乎都不会出bug,目前我当它没有太大影响

但是这里的input_1如果加上:0就会报错。

几个一定要修改的options

Options Definitions
--graph 模型名称
--input_layer 输入节点名称
--input_layer_shape 输入值的尺寸
--output_layer 输出节点名称

附录:测试及测试结果

Num runs: [50]
Inter-run delay (seconds): [-1]
Num threads: [1]
Benchmark name: []
Output prefix: []
Warmup runs: [1]
Graph: [./MS512_o1.tflite]
Input layers: [input_1]
Input shapes: [1,512,512,3]
Use nnapi : [0]
nnapi error: unable to open library libneuralnetworks.so
Loaded model ./MS512_o1.tflite
resolved reporter
Initialized session in 82.668ms
Running benchmark for 1 iterations 
count=1 curr=1303963

Running benchmark for 50 iterations 
count=50 first=1260477 curr=1259469 min=1255535 max=1261653 avg=1.25879e+06 std=1188

Average inference timings in us: Warmup: 1.30396e+06, Init: 82668, no stats: 1.25879e+06
结论:TODO

猜你喜欢

转载自blog.csdn.net/weixin_36047799/article/details/89339788