使用 Core ML在苹果设备上运行 MXNet 模型

使用 Core ML在苹果设备上运行 MXNet 模型

MXNet 支持在移动设备(Android、iOS)上运行基于深度学习的图像识别等任务

将 MXNet 模型导入 Apple 的 Core ML 格式中:

pip install mxnet-to-coreml

 

设置环境以将 Apache MXNet 模型转换为 Apple 的 Core ML

1 模型文件(*.json)


2 权重文件(*.params)


3 synset.txt 
mxnet源码中给的例子很复杂,但看代码似乎两列就够了.用空格分割的两列,第一列似乎没什么用,第二列就是label names, 一行表示一类,比如对于mnist识别,synset.txt内容可以如下 

0 0 
1 1 
2 2 
3 3 
4 4 
5 5 
6 6 
7 7 
8 8 
9 9

Sample Usage

mxnet_coreml_converter.py --model-prefix='squeezenet_v1.1' \
                          --epoch=0 --input-shape='{"data":"3,227,227"}' \
                          --mode=classifier --pre-processing-arguments='{"image_input_names":"data"}' \
                          --class-labels synset.txt --output-file="squeezenetv11.mlmodel"
发布了1636 篇原创文章 · 获赞 341 · 访问量 221万+

猜你喜欢

转载自blog.csdn.net/tony2278/article/details/103913054