El modelo de segmentación semántica SAM es de código abierto. En la era de AIGC, las herramientas de matización de imágenes están unificadas por el gran modelo. (Abajo)

¡Hola a todos, soy Spirited Away y estoy muy feliz de compartir mi experiencia de aprendizaje en ChatGPT con ustedes nuevamente hoy!

Esta vez es "Modelo de segmentación semántica SAM de código abierto, era AIGC, ¿las herramientas de matización de imágenes están unificadas por modelos grandes? "La versión final de la serie.

En las dos secciones anteriores, presentamos el modelo Segmentar cualquier cosa para segmentar todo y el modelo Segmentar y rastrear cualquier cosa para segmentar videos. ¡Solo se puede decir que el modelo de segmentación SAM ha mejorado demasiado rápido!

No me digas el nombre del proyecto que traigo hoy, si te dieran un modelo de algoritmo de segmentación de imágenes para matting, ¿cómo lo optimizarías?

1. Optimización de los escenarios de aplicación del modelo

En primer lugar, lo más fácil de pensar es cambiar el escenario de la aplicación de imagen a video, y luego nació el modelo Segment-and-Track Anything de la novela.

Optimizar desde el escenario de la aplicación es un punto de optimización, entonces, ¿qué otros puntos innovadores de optimización existen?

2. Optimizar la estructura del propio modelo

Por supuesto, el modelo en sí! Entonces es el proyecto de hoy. Con la continua popularización de la tecnología 5G, también tenemos altos requisitos de velocidad informática, por lo que el proyecto de hoy es comprimir y aligerar el modelo.

alternativa

1. El nacimiento del modelo MobileSAM

Creo que todos todavía recuerdan el modelo grande donde usamos SAM para dividir todo.La siguiente es la página de inicio del sitio web de implementación de demostración.

alternativa

En segundo lugar, la estructura del modelo MobileSAM

El modelo SAM original consta principalmente de dos partes, un codificador de imagen y un decodificador de máscara guiado por aviso.

Entre ellos, el codificador de imagen usa vit, los parámetros del modelo son muy grandes, el modelo es relativamente grande y el modelo vit-h tiene 632M;

alternativa

La segunda parte es muy liviana, incluye un decodificador de máscara y un codificador rápido, con menos parámetros de modelo, no más de 4M.

alternativa

3. Despliegue del modelo MobileSAM

La diferencia entre el modelo de segmentación de MobileSAM y SAM es que mobileSAM se puede implementar en la CPU;

Debido al gran tamaño del modelo, el modelo SAM solo se puede implementar en el servidor GPU en la nube. Implementamos el modelo MobileSAM en una PC local.

1. Conda crea un nuevo entorno llamado "mobileSAM", versión Python 3.8

(还包含PyTorch 1.7及以上版本和Torchvision 0.8及以上版本)

conda create -n mobileSAM python=3.8

2.激活创建的模型环境

conda activate mobileSAM

3.安装完成后,我们检查你的环境中的Python,PyTorch和Torchvision的版本,你可以使用以下命令:

python --version
python -c "import torch; print(torch.__version__)"
python -c "import torchvision; print(torchvision.__version__)"

4.安装Mobile Segment Anything的依赖:

pip install git+https://github.com/ChaoningZhang/MobileSAM.git

5.本地运行mobileSAM模型

cd app
python app.py

6.安装最新版本的gradio与timm安装包

pip3 install gradio timm

7.修改部分代码,进行服务链接部署

运行项目是部署于Google colab的云端实验室,使用gradio安装包进行快速web UI应用的搭建,创建部署调用的界面。

    def clear():
        return None, None

    def clear_text():
        return None, None, None

    # clear_btn_e.click(clear, outputs=[cond_img_e, segm_img_e])
    clear_btn_p.click(clear, outputs=[cond_img_p, segm_img_p])

demo.queue()
#设置share=True,将部署的demo网页链接设置为公网访问
demo.launch(share=True)

终端输出日志效果:

alternativa

点击public URL链接访问部署的服务,界面如下图所示:

alternativa

出现以上页面,表示项目推理的接口服务部署成功!

四、MobileSAM模型的测试

通过以上的Google colab的环境的服务部署,同时该项目在 HuggingFace社区已经发布Demo服务。

1.上传图片,点击待筛选的图像分割

alternativa

2.点击restart按钮,进行待分割标签的复原

alternativa

3.HuggingFace社区运行在CPU平台

alternativa

该项目可以运行在CPU平台,而原始模型SAM由于体积较大,仅仅在支持运行在GPU平台,MobileSAM模型支持运行在CPU等移动端平台。

五、MobileSAM性能对比

以上关于MobileSAM模型的介绍就结束了,回想起来,最开始的SAM原始图像分割一切模型。

到SAM分割并追踪的模型用于视频图像分割,再到现在的MobileSAM部署于CPU端以及移动端的分割一切模型,只能说大模型真的是杀疯了!太快了!

那么移动版本的效果与原始的SAM分割模型对比效果如何?

alternativa

可以看出来,origin SAM模型与MobileSAM模型的分割效果相类比之下,还算不错。

以下是MobileSAM分割一切轻量化模型部署的链接地址(点击可用):

https://huggingface.co/spaces/dhkim2810/MobileSAM

大家可以点击试一试,分割效果真的不错,一起追赶大模型的发展!

Soy Spirited Away, un codificador que solo habla de productos secos, ¡hasta la próxima!

Este artículo es publicado por mdnice multiplataforma

Supongo que te gusta

Origin blog.csdn.net/baidu_39629638/article/details/131887737
Recomendado
Clasificación