La camada de cerdas lo sabía antes, esta vez Nannong usó el borde AI Jetson de Nvidia

Contenido de un vistazo : Para la industria porcina, el parto de las cerdas es un eslabón clave. Por lo tanto, mejorar la tasa de supervivencia de los lechones y garantizar la seguridad de las cerdas durante el parto se han convertido en temas importantes. El método de monitoreo de IA existente tiene los problemas del alto costo del equipo y la transmisión de información inestable. Investigadores de la Universidad Agrícola de Nanjing utilizaron un método ligero de aprendizaje profundo para llevar a cabo una alerta temprana y un monitoreo efectivo del proceso de parto de las cerdas. Mientras se reducen los costos, la tasa de precisión del monitoreo se mejora

Palabras clave : placa de desarrollo integrada aprendizaje profundo ligero

Este artículo se publicó por primera vez en la plataforma pública hiperneuronal WeChat de HyperAI~

Autor|alicia

Editor|Sanyang

La escala de la industria de cría de cerdos de mi país ocupa el primer lugar en el mundo, pero la industria en su conjunto todavía enfrenta el problema del bajo nivel de cría. Para muchas granjas grandes de cerdos, la clave es reducir los costos y mejorar la supervivencia de los lechones. Los métodos tradicionales que dependen de la supervisión humana son difíciles y altamente subjetivos, ante una serie de problemas como la distocia y la asfixia de los lechones durante el parto, es difícil tratarlos de manera oportuna y efectiva.

En los últimos años, la vigilancia con IA se ha convertido en una importante solución a este problema. La mayoría de sus principios se basan en el aprendizaje profundo basado en la computación en la nube para el monitoreo, sin embargo, este método requiere equipos y ancho de banda de red elevados, y es altamente restrictivo e inestable.

Según China Pig Network, dentro de las 12-24 horas antes del parto, las cerdas a menudo muestran un comportamiento de anidación debido a los efectos de la oxitocina o la prolactina, y aumenta la frecuencia de los cambios de postura. **Con base en esto, el equipo experimental diseñó un modelo para monitorear la postura de las cerdas y el nacimiento de lechones a través del algoritmo YOLOv5, y lo implementó en la placa de desarrollo NVIDIA Jetson Nano,** para monitorear y analizar el proceso en Escenas complejas, de bajo costo, baja latencia, alta eficiencia y fácil implementación.

El resultado actual se publicó en la revista "Sensors" en enero de 2023, titulado: "Advertencia temprana y supervisión de partos de cerdas para implementaciones de tableros integrados".
inserte la descripción de la imagen aquíEl artículo ha sido publicado en la revista "Sensors".

Dirección en papel:
https://www.mdpi.com/1424-8220/23/2/727

Descripción general del experimento

Datos y Procesamiento

Los datos del video provienen de dos granjas en Suqian y Jingjiang, Jiangsu.**Se recolectó un total de 35 cerdas perinatales. **Los datos de 11 cerdas en la granja Jingjiang se registraron del 27 de abril al 13 de mayo de 2017, y los datos de 24 cerdas en la granja Suqian se registraron del 9 al 15 de junio de 2020. Las cerdas se colocaron al azar en una cama de parto de un tamaño específico (2,2 mx 1,8 m), y la cámara grabó continuamente los datos de video durante 24 horas.

El proceso es el siguiente:
inserte la descripción de la imagen aquíFigura 1: Diagrama de flujo de captura de video

A continuación, preprocesar los datos. El equipo experimental primero evaluó los videos grabados el día anterior y posterior al parto y luego los procesó en datos de imagen con Python y OpenCV. **Usando el software de etiquetas para etiquetar y mejorar manualmente la postura de la cerda y los datos de lechones recién nacidos en las 12 450 imágenes adquiridas,** se obtuvo un conjunto de datos de 32 541 imágenes.

Aumento de datos: aquí se refiere a recortar, traducir, rotar, duplicar, cambiar el brillo, agregar ruido y cortar)

Este conjunto de datos se divide en 5 categorías: 4 posturas de cerdas (acostadas de lado, acostadas sobre el esternón, de pie y sentadas) y lechones con una proporción de 7: 1: 2 para conjuntos de entrenamiento, validación y prueba.
inserte la descripción de la imagen aquí
Figura 2: El efecto después del aumento de datos

modelo experimental

El equipo experimental usó YOLOv5s-6.0 para construir un modelo para detectar la postura de las cerdas y los lechones . Este modelo consta de 4 partes:

Entrada: entrada de imagen

BackBone: extracción de características de imágenes de cerdas y lechones

Cuello: fusión de características de la imagen

Predicción: Predicción (debido a la gran diferencia de tamaño entre cerdas y lechones, esta parte utiliza 3 mapas de características diferentes (mapas de características) para detectar objetos objetivo grandes, medianos y pequeños) Figura 3: La estructura de red del algoritmo
inserte la descripción de la imagen aquíYOLOv5s

a : detalles del módulo CBS

b : Detalles del módulo de la unidad de res

c : Estructura detallada de los módulos CSP1_X y CSP2_X

d : estructura detallada del módulo SPPF

El equipo experimental implementó el algoritmo en la plataforma de computación de IA integrada de la serie Jetson Nano lanzada por Nvidia, y usó TensorRT para optimizar el modelo de modo que su funcionamiento posterior en la placa de desarrollo integrada tenga un mayor rendimiento y una latencia más baja, al tiempo que evita la fuga de datos que puede existe en el proceso de transmisión de la red se evita.
inserte la descripción de la imagen aquí

Figura 4: Flujo de trabajo de TensorRT

Los parámetros específicos son los siguientes:

Entorno de formación modelo : sistema operativo Ubuntu 18.04, CPU Intel® Xeon® Gold 5118 a 2,30 GHz, GPU NVIDIA Quadro P4000, memoria de vídeo de 8 GB, memoria de 64 GB, disco duro de 2 TB, PyTorch 1.7.1 y Torchvision 0.8.2 de profundidad marco de aprendizaje, CUDA versión 10.1.

Entorno de implementación del modelo : sistema operativo Ubuntu 16.04 adaptado a ARM, CPU ARM A57 de 4 núcleos a 1,43 GHz, GPU de arquitectura Maxwell de 128 núcleos, memoria de 4 GB, JetPack 4.5, Cuda10.2.89, Python 3.6, TensorRT 7.1, Opencv 4.1.1 , CMake 3.21.2 entorno de aprendizaje profundo.

Parámetros del modelo : (1) Para el entrenamiento de YOLOv5, configure epoch 300, learning_rate 0.0001, batch_size 16; (2) Para la red optimizada TensorRT, batch_size es 1, precisión fp16.

Por último, el equipo experimental utilizó indicadores como la precisión, la tasa de recuperación y la velocidad de detección para evaluar el rendimiento de diferentes algoritmos.

Entre ellos, la precisión y la tasa de recuperación se pueden usar para medir la capacidad del algoritmo para detectar todas las categorías de datos , incluidas 4 posturas de la cerda (acostada de lado, acostada sobre el esternón, de pie y sentada) y lechones recién nacidos; se usan el tamaño del modelo y la velocidad de detección para medir el algoritmo Si es adecuado para su implementación en dispositivos integrados.

La fórmula de cálculo es la siguiente:
inserte la descripción de la imagen aquí
TP : el número de predicciones correctas de muestras positivas

FP : Número de predicciones falsas para muestras positivas

FN : Número de predicciones incorrectas para muestras negativas

Resultados experimentales

rendimiento del modelo

El equipo experimental descubrió que en las 300 épocas de entrenamiento del modelo, a medida que aumenta el ciclo de iteración, la precisión y la tasa de recuperación generalmente muestran una tendencia ascendente. Al mismo tiempo, se puede encontrar que la precisión y la tasa de recuperación del modelo YOLOv5s después de la mejora de datos son siempre altas.
inserte la descripción de la imagen aquí

Figura 5: Precisión y recuperación del modelo de detección de YOLOv5s

a : precisión

b : tasa de recuperación (recall)

Línea naranja : la tasa de precisión/recuperación del modelo YOLOv5s después del aumento de datos

Línea azul : precisión/recuperación del modelo YOLOv5s sin aumento de datos

En los experimentos, se utilizó la precisión media (mAP) para evaluar la capacidad del algoritmo para detectar todas las clases . Mientras evaluaba el algoritmo YOLOv5s, el equipo experimental también comparó el rendimiento de los dos algoritmos YOLOX-nano y NanoDet-m horizontalmente Los resultados encontraron que la velocidad de detección de YOLOX-nano y NanoDet-m es ligeramente más rápida que la de YOLOv5s, pero la precisión es menor La situación de falta y detección falsa de lechones. El algoritmo YOLOv5s tiene buenos resultados de detección para objetivos de diferentes tamaños, y la velocidad de detección promedio del modelo en imágenes, videos locales y cámaras es comparable a los otros dos. Y el modelo YOLOv5s con datos aumentados tiene la mayor precisión y recuperación, 0,982 y 0,937, respectivamente.
inserte la descripción de la imagen aquí
Tabla 1: Métricas de evaluación de diferentes algoritmos para postura de cerda y detección de lechones

Para probar la capacidad de generalización y la capacidad antiinterferente del modelo, el equipo experimental mantuvo una de las cerdas como "nueva muestra" al entrenar el modelo y seleccionó 410 imágenes que contenían diferentes escenas complejas para probar el modelo. Los resultados muestran que la detección perdida y la detección falsa de la postura de la cerda se ven afectadas principalmente por el cambio de luz; los lechones se ven afectados principalmente por la lámpara de calor, es decir, es difícil reconocer al lechón bajo una luz intensa; la capacidad de detección es menos afectado.

inserte la descripción de la imagen aquí
Tabla 2: Situación de prueba del modelo YOLOv5s en un entorno complejo

La segunda columna desde la izquierda : la tasa de detección perdida de la postura de la cerda es la más alta bajo iluminación compleja

Tercera columna izquierda : la tasa de detección falsa de la postura de la cerda es mayor bajo iluminación compleja y con la lámpara de calor encendida por la noche

Cuarta columna de la izquierda : el número de detecciones falsas de lechones es mayor en condiciones de iluminación complejas y de noche con lámparas de calor encendidas

Cinco columnas de la izquierda : el número de lechones perdidos fue mayor durante la noche con las luces de calor encendidas

inserte la descripción de la imagen aquí
Figura 6: Resultados de la prueba de imagen en entornos complejos

a : Bajo iluminación compleja

b : primer lechón nacido

c : bajo lámparas de calor de diferentes colores

d : enciende la lámpara de calor por la noche

Antes y después del despliegue

Después de que el equipo experimental implementó el modelo en NVIDIA Jetson Nano, pudo detectar con precisión la postura de la cerda y los lechones. Después de comparar los resultados de las pruebas, se encuentra que aunque el modelo tiene una ligera disminución en la precisión después de implementarse en NVIDIA Jetson Nano, su velocidad ha aumentado más de 8 veces.

inserte la descripción de la imagen aquí

Tabla 3: Comparación de los resultados de las pruebas del modelo

Columna izquierda : formato del modelo

La segunda columna de la izquierda : la plataforma de implementación del modelo, Quadro P4000 es la plataforma utilizada para la prueba de comparación.

La utilización de GPU en placas de desarrollo integradas limita las capacidades prácticas de este modelo. La siguiente figura muestra la utilización de GPU del modelo al detectar objetos de imagen y video en una placa de desarrollo integrada. Debido a la necesidad de decodificar el flujo de video, la utilización de la GPU es mayor cuando se detectan videos que cuando se detectan imágenes, pero esto no afecta el rendimiento del modelo. Los resultados de las pruebas muestran que el modelo en estudio se puede aplicar a diferentes escenarios de producción.
inserte la descripción de la imagen aquí

Figura 7: Utilización de GPU durante la detección

(a) Utilización de la GPU en la detección de imágenes

(b) Utilización de GPU en detección de video

Resultados de la prueba

El equipo experimental probó y analizó los datos de 22 cerdas para obtener la frecuencia promedio de cambio de postura de las cerdas desde 48 horas antes del parto hasta 24 horas después del parto. **Según la frecuencia de cambio (como se muestra en la siguiente figura), el equipo resume la estrategia de alerta temprana del modelo como:

1. Se emitirá una alarma cuando la frecuencia de conversión de postura supere el valor límite superior (17,5 veces/hora) y caiga por debajo del valor límite inferior (10 veces/hora).

2. Para reducir la influencia de las actividades diarias de la cerda en la alerta temprana, el límite superior o el límite inferior deben superar las 5 horas.

Las pruebas en muestras mostraron que el modelo era capaz de emitir una alarma 5 horas antes del parto, con un error de 1,02 horas entre el tiempo de advertencia y el tiempo real del parto.
inserte la descripción de la imagen aquí

Figura 8: Análisis de la tasa de conversión de postura promedio de las cerdas desde 48 horas antes del parto hasta 24 horas después del parto

(a) Rango de variación de la tasa de conversión de pose promedio

(b) Frecuencia promedio de transición de pose

48 horas antes del parto a 24 horas antes del parto , tiempo durante el cual la cerda está normalmente activa

Desde 24 horas antes del parto hasta 1 hora antes del parto , la frecuencia de los cambios de postura aumentó gradualmente y luego disminuyó gradualmente.

Desde 1 hora hasta 24 horas después del parto , la frecuencia de cambio de postura es cercana a 0 y luego aumenta ligeramente

Cuando se detecte el primer lechón recién nacido, se activará la alarma de parto, que mostrará "¡Parto iniciado! Hora de inicio: XXX". Además, las luces LED intermitentes también pueden ayudar a los criadores a ubicar rápidamente a las cerdas en parto y determinar si se requiere una intervención manual.

Pero cuando la tasa de detección es demasiado alta, los lechones a menudo se detectan incorrectamente. Por lo tanto, para lograr la detección en tiempo real y reducir las falsas alarmas, el equipo experimental adoptó los " tres métodos de detección consecutivos ". Solo cuando los lechones recién nacidos se detectaron tres veces seguidas, se consideraron lechones. El número de falsos positivos de este método es de 1,59 veces, mientras que el método tradicional de detección única es de 9,55 veces. El número de falsos positivos se redujo significativamente, con una tasa de precisión promedio general del 92,9 %.

Cría de cerdos con IA: una nueva era de crianza inteligente

mi país es uno de los principales criadores de cerdos del mundo. De 2015 a 2018, el volumen anual de matanza de cerdos fue de unos 700 millones. Sin embargo, en los últimos años, debido al impacto de la peste porcina y otros factores, la cantidad de cerdos vivos disponibles y la cantidad de cerdos sacrificados han seguido fluctuando mucho. Según los datos de investigación publicados por la industria, en los últimos años, la proporción de granjeros minoristas en la cría de cerdos ha ido disminuyendo y el grado de escala ha seguido aumentando, por lo que se requieren tecnologías de cultivo más eficientes e intensivas para ser aplicadas a la cría de cerdos. industria.
inserte la descripción de la imagen aquí

En China, la cría de cerdos con IA ya cuenta con productos fiables. Alibaba Cloud, Aibo Machinery y Qishuo Technology lanzaron una solución de cría de cerdos de IA para satisfacer las necesidades de múltiples escenarios. JD Agriculture and Animal Husbandry Intelligent Breeding Solution se basa en IA, Internet de las cosas y otras tecnologías, y realiza "reconocimiento facial de cerdos, trazabilidad de toda la cadena". El modelo agrícola más inteligente y refinado creado por la IA se está promoviendo gradualmente.

Sin embargo, la promoción actual de la cría de cerdos con IA todavía enfrenta problemas como el alto costo y la operación complicada. Cómo hacer que más granjas porcinas abran los brazos para aceptar la IA puede que aún tenga un largo camino por recorrer.

Este artículo se publicó por primera vez en la plataforma pública hiperneuronal WeChat de HyperAI~

Link de referencia:

[1]https://www.163.com/dy/article/HCSQN810055360T7.html

[2] https://xueshu.baidu.com/usercenter/paper/show

[3] https://www.aliyun.com/solution/govcloud/ai-pig

[4]http://www.dekanggroup.com/index/news/detail/id/182.html

[5]https://www.thepaper.cn/newsDetail_forward_3695180

[6]https://reurl.cc/mDKyEM

[7] Ding Qi'an, Liu Longshen, Chen Jia, Tai Meng, Shen Mingxia. Detección de lechones lactantes basada en Jetson Nano[J/OL]. Journal of Agricultural Machinery.

Supongo que te gusta

Origin blog.csdn.net/HyperAI/article/details/132211449
Recomendado
Clasificación