[Idée générale] rv1126 traverse Yolov5

1. Conversion du format du modèle

Cible : yolov5_coco.onnx ---> yolov5_coco_rv1126.rknn

Convertir le modèle yolov5 onnx en modèle rknn-CSDN Blog

étape:

1. Chargez l'image Docker, rknn-toolkit-1.7.3-docker.tar.gz

2. Exécutez l'image et générez un nouveau conteneur

3. Préparez quelques images et générez un fichier texte [gen_list.py] avec le chemin de l'image.

4. Conversion de modèle, la mémoire est suffisamment grande [rknn_convert.py]

2. Pré-compilation du modèle

Raison : Le modèle rknn s'exécute directement très lentement et doit être précompilé.

Cible : yolov5_coco_rv1126.rknn ---> yolov5_coco_rv1126_pre.rknn

Le modèle rknn fonctionne sur la carte de développement rv1126-CSDN Blog

Environnement Docker utilisé :

1. L'environnement Docker de l'étape précédente

2. Et l'environnement de la carte mère EASY EAI Nano : la carte de développement et Ubuntu doivent s'assurer que la connexion abd est stable, et désactiver le service adb de l'environnement Ubuntu pour éviter la concurrence avec l'environnement docker.

3. Compilation croisée du code d'inférence C++

yolov5_detet_demo Code C++ ---> fichier exécutable yolov5_detect_demo

1. Préparation de l'environnement :

develop_enviroment 【image docker】

Bibliothèques dépendantes sur la carte [Le processus de compilation maintient la connexion adb entre la carte et le notebook]

2. Compilez le code d'inférence C++ de la démo yolov5 dans le conteneur Docker

3. Copiez les résultats de la compilation sur le tableau

4. Exécutez le fichier exécutable de démonstration yolov5 sur la carte rv1126

1. Copiez le modèle rknn précédemment précompilé
2. Préparez les images de test

3. Exécutez le fichier exécutable de démonstration yolov5

Guess you like

Origin blog.csdn.net/weixin_45824067/article/details/133418786