Detección de objetivos Casos de aplicación práctica de YOLO 100 conferencias: investigación y aplicación de redes convolucionales regionales en la detección de objetivos en entornos de sombra (Parte 2)

Tabla de contenido

5.2 Configuración experimental del módulo de detección de sombras y del módulo de detección de vista de calles

5.2.1 Entorno y herramientas experimentales

5.2.3 Función de pérdida

5.2.4 Proceso específico del experimento.

5.3 Evaluación y comparación experimental

5.3.1 Criterios de evaluación para dos tipos de experimentos

5.3.2 Comparación de dos tipos de resultados experimentales

Implementación de un sistema de detección de objetivos en escenas callejeras en entornos de sombra.

6.1 Descripción general del sistema

6.2 Entorno de software y hardware del sistema

6.3 Diseño del módulo de funciones

6.4 Proceso del sistema

6.5 Diseño e implementación del sistema

6.5.1 Diseño e implementación de módulos centrales del sistema

6.5.2 Visualización de otros módulos del sistema


Este artículo es bastante largo y está dividido en tres partes: superior, media e inferior. Consulte el índice del artículo para obtener más detalles.

Investigación y aplicación de redes convolucionales regionales en la detección de objetivos en entornos de sombra.

Investigación y aplicación de redes convolucionales regionales en la detección de objetivos en entornos de sombra (Parte 2)

Investigación y aplicación de redes convolucionales regionales en la detección de objetivos en entornos de sombra (Parte 2)

5.2 Configuración experimental del módulo de detección de sombras y del módulo de detección de vista de calles

5.2.1 Entorno y herramientas experimentales

La operación experimental utiliza el sistema operativo Ubuntu 16.04 como plataforma, utiliza codificación en lenguaje Python3.6 y el software utiliza
Pytorch y Mxnet se utilizan como marcos de aprendizaje profundo y se combinan con Opencv , Matplotlib , Numpy y otros kits de herramientas para procesar datos.
Procesamiento y operación, en términos de hardware, el proceso de capacitación se basa en una Nvidia Tesla P4 , y el proceso de predicción e inferencia se basa en una Nvidia.
GTX 960M , este experimento consta de dos tipos de subexperimentos, incluido el experimento del módulo de detección de sombras y la implementación del módulo de detección de objetivos de Street View.
La experiencia se explicará por separado en la discusión específica.
5.2.2 Configuración de la capa de entrada y de la capa de salida
Para el módulo de detección de sombras, la capa de entrada se entrena utilizando una entrada de imagen fija de 512 × 512 × 3 .
Antes de la estratificación, cada dato se recortará aleatoriamente, es decir, los datos se expandirán a un tamaño de 512 × 512 , para que puedan ingresarse directamente en el modelo. producción
La capa utiliza principalmente una capa de convolución transpuesta basada en interpolación bilineal, que se utiliza para reducir el tamaño de la imagen que pasa a través de cuatro módulos de convolución desde un tamaño de cuatro veces.
Restaure el tamaño de la imagen al tamaño original para que se ajuste al resultado de salida.
Para el módulo de detección de objetos de Street View, la capa de entrada de entrenamiento utiliza de manera uniforme interpolación bilineal para escalar el tamaño de los datos de la imagen a 512 ×
256 , use la interpolación del vecino más cercano para escalar la etiqueta al mismo tamaño para evitar otros valores de punto flotante en la etiqueta y luego ingrese Resnet
FPN para operaciones de extracción de características. La capa de salida se divide en una rama de reconocimiento del cuadro delimitador y una rama de máscara .
Después de ingresar el mapa de características en la capa completamente conectada, se generan la categoría predicha y el posicionamiento del cuadro delimitador, y la rama de máscara genera 28 × 28 × 80
máscara, el módulo final generará tres resultados y luego los asignará nuevamente a la imagen original para realizar las funciones de posicionamiento, detección y segmentación.

5.2.3 Función de pérdida

La función de pérdida se utiliza para representar la distancia entre los resultados de detección del modelo y la etiqueta real ¿Cómo calcular la pérdida calculada por la función de pérdida?
Minimizar sin sobreajustar es uno de los objetivos del entrenamiento de modelos. Existen diferentes métodos para los dos tipos de experimentos involucrados en este artículo.
Definición de función de pérdida.
Para el módulo de detección de sombras, al observar el conjunto de datos de sombras, existe un desequilibrio en la proporción de muestras positivas y negativas, como se muestra en la Figura 5.1 a continuación.
Un ejemplo de una imagen de conjunto de entrenamiento con tal problema.
En los resultados de detección reales, los píxeles negros representan información de fondo y los píxeles blancos representan información de sombras que se detectarán. En este caso blanco
Los píxeles sombreados representan una proporción menor del total global. En el conjunto de datos completo, este desequilibrio en la distribución de muestras positivas y negativas es común
situación, después de un análisis exhaustivo, la pérdida focal se utiliza como función de pérdida para el entrenamiento del modelo final. La siguiente ecuación 5.1 representa la pérdida focal
La definición específica de Pérdida [53].
Sobre la base de esta entropía cruzada binaria ordinaria, la entropía cruzada binaria promedio utiliza la función de activación sigmoidea para calcular cada píxel uno por uno.
El cálculo de píxeles evita y soluciona problemas de competencia entre clases.

5.2.4 Proceso específico del experimento.

Como se muestra en la Figura 5.2 , este experimento contiene dos subexperimentos. Los pasos de capacitación del experimento general incluyen la adquisición y el uso de conjuntos de datos, el preprocesamiento de datos y
Modificaciones de procesos o clases, entrenamiento del modelo central, ajuste de parámetros para convergencia y obtención de la composición general final del modelo. En modo de detección de sombras
El bloque preprocesará y aumentará el conjunto de datos de sombra y lo ingresará en el módulo de convolución residual paralelo basado en Resnet50 , usando Focal.
Loss estima la pérdida y los trenes durante unos 500 pasos hasta la convergencia; en el módulo de detección de Street View, en primer lugar, para el conjunto de datos de Street View Cityscapes
Convierta categorías de las 34 categorías originales a 5 categorías, ingrese la red Mask R-CNN para capacitación y apunte al cuadro delimitador
La pérdida, la pérdida de clasificación y la pérdida de máscara se optimizan hasta que el entrenamiento de la red alcanza la convergencia en aproximadamente 400 pasos y se obtiene una detección de vista de calle utilizable.
Modelo.

5.3 Evaluación y comparación experimental

5.3.1 Criterios de evaluación para dos tipos de experimentos

Al entrenar los datos anteriores de acuerdo con el proceso, los resultados finales se evaluarán de acuerdo con los criterios de evaluación para observar el modelo.
La capacidad de predicción real del modelo tiene diferentes criterios de evaluación para el modelo de detección de sombras y el modelo de detección de objetivos de escenas callejeras, como se muestra a continuación.
Se darán definiciones específicas.
Para el modelo de detección de sombras, se presta más atención a la tasa de reconocimiento de sombras del modelo y a la tasa de detección falsa de no sombras para evaluar los resultados experimentales.
Los resultados se analizan y comparan utilizando el mismo índice de evaluación que el modelo de detección de sombras anterior [14-15] : factor de error de detección de píxeles de sombra.
SER , factor de error de detección de píxeles sin sombra NER , factor de error de detección promedio BER , se definen de la siguiente manera : 5,6 , 5,7 y 5,8 :
Representa el número total de píxeles de sombra y el número total de píxeles que no son de sombra. Cuanto menor sea el factor de error, mayor será la precisión de detección de sombras del modelo, como
Cuanto más precisa sea la clasificación de la información semántica de píxeles, el estándar de evaluación final podrá reflejar mejor la probabilidad de errores de detección y evaluar si el modelo tiene
Mejores resultados de detección.
Para el modelo de detección de objetivos de Street View, se utilizan la tasa de precisión promedio (mAP) y la tasa de paz en ciertas condiciones de IOU .
La recuperación promedio (mAR) se utiliza como índice de evaluación, y IOU se refiere al área del cuadro de edición prevista y al cuadro delimitador de la etiqueta.
La relación de intersección entre regiones [54] se utiliza para examinar la brecha entre predicciones y etiquetas. El rango de referencia de IOU se establece en 0.5:0.05:0.95 , donde
0,5 : 0,05: 0,95 representa 10 subintervalos divididos de 0,5 a 0,95 en intervalos de 0,05 , y luego el pagaré de cada intervalo es
La precisión se promedia para obtener el índice de evaluación final y luego se evalúan las diferentes tasas de precisión en áreas grandes, medianas y pequeñas en función del tamaño objetivo.
y tasa de recuperación para lograr el propósito del análisis comparativo de las variables de control.El área pequeña (pequeña) representa el cuadro de posicionamiento de la etiqueta de menos de 32*32 , medio
El área (mediana) representa el cuadro de posicionamiento de anotaciones menor que 96*96 y el área grande (grande) representa el cuadro de posicionamiento de anotaciones mayor o igual a 96*96 .

5.3.2 Comparación de dos tipos de resultados experimentales

Para la red de detección de sombras combinada con estándares de evaluación, está construida en el entorno de ubuntu16.04 , Python3.6 y mxnet-cu100 .
Entrenado y probado en una tarjeta gráfica Tesla P4 , se necesita un promedio de 0,031 segundos para procesar una imagen y se espera que la velocidad de detección alcance cada
32,2 fotogramas por segundo , con ciertas capacidades eficientes de detección en tiempo real. El rendimiento específico del módulo de detección de sombras en este artículo sobre los equipos de prueba SBU y UCF
Los resultados de la comparación entre los resultados de las pruebas corporales y los modelos comunes de detección de sombras del mismo tipo se muestran en las Tablas 5.1 y 5.2 .
En el experimento, para explorar el papel de cada módulo del modelo de detección de sombras, se construyeron cuatro redes de referencia para comparación y verificación.
La primera red es la red Resnet50 original previamente entrenada , con solo su última capa de salida modificada; la segunda red es
La red Resnet50 + CBAM , basada en la red Resnet50 original , conecta atención no mejorada entre cada bloque de convolución residual
módulo de fuerza CBAM ; la tercera red es la red Resnet50+conv-CBAM , que se basa en la red Resnet50 original.
El módulo de atención mejorado conv-CBAM está conectado entre cada bloque de convolución residual ; la cuarta red es Resnet50+Parallel
La red Block+conv-CBAM es una reorganización de cada módulo residual del Resnet50 original , utilizando el diseño de convolución paralela mencionado anteriormente.
La idea es formar módulos de convolución paralelos y conectar los módulos del mecanismo de atención mejorado entre cada módulo, pero los resultados de salida de cada capa no utilizan
Conectado con conexiones densas. Los cuatro tipos de estructuras de red anteriores son diferentes y la complejidad es cada vez mayor, y son diferentes de las que utilizan ideas de conexión densa.
La comparación de las redes completas entre sí puede verificar el mecanismo de atención CBAM , el mecanismo de atención mejorado conv-CBAM y el volumen paralelo respectivamente.
El papel de los módulos de productos y los métodos de diseño de conexiones densas. Para garantizar la credibilidad del experimento de verificación, se utilizó la misma pérdida para cada entrenamiento de modelo.
función de pérdida, conjunto de datos y estrategia de entrenamiento, y utiliza el mismo índice de evaluación para evaluar los resultados de la predicción. Los módulos específicos
Los resultados del experimento de investigación se muestran en la Tabla 5.3 .
Al observar los resultados experimentales, se puede ver que los indicadores de evaluación del módulo completo de detección de sombras propuesto en este artículo son mejores que las cuatro categorías construidas en el experimento de verificación.
Red de referencia, y a medida que se profundiza la complejidad de estos cinco tipos de redes, los valores del índice de evaluación generalmente disminuyen, lo que refleja
Esto asegura la racionalidad del diseño de cada módulo y asegura la credibilidad de este módulo de detección de sombras. El módulo completo tiene un rendimiento relativamente bueno en el equipo de prueba SBU .
Buena mejora del rendimiento, los indicadores NER y BER en el conjunto de datos UCF son significativamente más bajos que otros modelos similares de detección de sombras.
gota. El éxito de la validación entre conjuntos de datos demuestra la capacidad de generalización confiable de este modelo. Y a través de ST-CGAN . La comparación de los resultados experimentales del modelo demuestra que este modelo tiene una capacidad de detección equilibrada en muestras positivas y negativas y que el clasificador no se verá afectado por muestras positivas y negativas.
El desequilibrio de la proporción cuantitativa conduce al desequilibrio de los resultados de la clasificación.
Para los resultados experimentales del módulo de detección de objetivos de Street View, se utilizan el módulo único del módulo de detección de objetivos de Street View y el módulo de detección de sombras combinado.
El modelo de detección de objetivos de Street View en el estado del entorno de sombra completo se compara con el módulo de detección de Street View compuesto por bloques para reflejar la sombra.
La importancia del módulo de detección en el tema de detección de objetivos en las escenas complejas exploradas en este artículo y las ventajas de este modelo de detección de objetivos de Street View.
Usabilidad y solidez generales, los resultados de comparación específicos se muestran a continuación en la Tabla 5.4 .
Se puede ver en los resultados de la observación que el modelo de detección de vista de la calle en la escena de sombras completa basado en el módulo de detección de sombras y el módulo de detección de vista de la calle es básicamente
Este libro tiene mayor precisión y tasas de recuperación, lo que se debe a su procesamiento adicional de detección de sombras para escenas de sombras en el conjunto de datos.
Esto permite que el modelo tenga mejores capacidades de detección en diferentes escenas y diferentes condiciones de iluminación, por lo que el método de detección de Street View propuesto en este artículo finalmente
El sistema de medición se construirá en base a este modelo y parámetro de referencia para lograr funciones de interfaz más ricas, como se muestra en las Figuras 5.3 y 5.4 .
es una curva de parámetro específico, en la que el eje horizontal representa el número de pasos de iteración de entrenamiento y el eje vertical representa el valor del índice porcentual específico.
Al analizar las curvas de precisión y recuperación, se puede ver que ambos tipos de parámetros convergen gradualmente de 350 a 400 pasos, en comparación con los tres grandes, medianos y pequeños.
La tasa de recuperación y la tasa de precisión bajo el área del cuadro delimitador de la etiqueta de clase. A medida que aumenta el área del cuadro delimitador, la tasa de precisión y la tasa de recuperación del reconocimiento del modelo
A medida que aumenta, la capacidad de detección del modelo es más fuerte, lo que significa que el modelo tiene una mejor capacidad de reconocimiento para objetos de gran escala y para objetos más pequeños que
La capacidad de reconocimiento de objetos en la escala 32*32 es ligeramente más débil. Compare la tasa de precisión de reconocimiento y la tasa de recuperación. En cualquier área del marco de posicionamiento, la tasa de recuperación
En general, es más alta que la tasa de precisión, lo que demuestra que el modelo reconoce bien varias categorías, tiene menos falsos negativos y puede localizar y encontrar la mayoría de las categorías.
Los objetos a predecir se dividen en dos categorías, la precisión también es buena y la precisión del reconocimiento también está garantizada. Basado en dos tipos de indicadores, el modelo
La forma general satisface las necesidades de detección de escenas callejeras y puede completar tareas de detección y posicionamiento.

Implementación de un sistema de detección de objetivos en escenas callejeras en entornos de sombra.

6.1 Descripción general del sistema

Para las tareas de detección de objetos de Street View, los usuarios como conductores, departamentos de control de tráfico o compañías de seguros a menudo necesitan una información real y factible.
El sistema se utiliza para completar la mayoría de las funciones, pero el simple hecho de usar el modelo entrenado no puede mostrar bien los hechos y los resultados de la predicción.
También es difícil proporcionar capacidades de interacción confiables para desarrolladores no técnicos. En base a esta demanda, construye una escena callejera en este entorno de sombras.
El sistema de detección de objetivos permite a los usuarios cargar fotos de Street View, cargar videos de Street View, usar cámaras para tomar fotografías y realizar la detección de objetivos de Street View.
Funciones básicas de medición y predicción.
Este sistema de detección de Street View utiliza los dos modelos de módulos en el experimento descrito anteriormente y están conectados entre sí para brindar a los usuarios una solución eficiente y conveniente.
La plataforma integral de detección de Street View multifuncional de Jie. El sistema está desarrollado en base a la arquitectura C/S y es principalmente adecuado para los sistemas operativos Windows .
sistema, utilizando el marco PyQt5 para desarrollar ventanas de interfaz gráfica y utilizando los kits de herramientas Pytorch y Opencv para completar operaciones de imágenes.
y otras funciones detalladas específicas se dividen en tres tareas principales de desarrollo: la primera es la interfaz de conexión entre la capa del modelo de capacitación experimental y la capa empresarial; la segunda
Es la conexión impulsora entre la capa de persistencia de la base de datos y la capa empresarial. La tercera es la construcción de la capa empresarial central, el desarrollo de la lógica empresarial y su interacción con
Ver conexiones de capas. La capa de modelo encapsula el proceso del modelo del algoritmo central, incluida la composición de cada módulo y la definición de la red, y también es responsable de
Responsable de importar parámetros de entrenamiento a la plantilla del modelo y, finalmente, exportar el modelo del módulo directamente disponible para su uso; la capa de vista se desarrolla en base a PyQt5 .
Responsable de organizar interfaces y controles funcionales, proporcionar interfaces y botones hombre-máquina disponibles y presentar datos de fondo a los usuarios.
usuarios, exponiendo información como resultados de predicción; la capa empresarial es responsable de procesar la retroalimentación de la capa de vista y procesar los procesos que los usuarios necesitan procesar. Al mismo tiempo
Puede combinar la capa de modelo y la capa de persistencia para operar con datos, como procesamiento de imágenes, almacenamiento de datos, etc., que es el backend de todo el sistema.
El núcleo más importante de la plataforma; la capa de persistencia de datos se basa en la base de datos MySQL y se utiliza principalmente para encapsular la base de datos e implementar operaciones de base de datos.
Para operar y procesar información importante relevante, la Figura 6.1 es el diagrama de estructura del sistema de detección de escenas callejeras en un entorno de sombra.

6.2 Entorno de software y hardware del sistema

Sistema de detección de objetivos en escenas callejeras en un entorno de sombra basado en una red convolucional regional utilizando el marco PyQt5 y el aprendizaje profundo de Pytorch .
El marco de aprendizaje, etc., realiza varias funciones del sistema. Las restricciones del entorno del sistema se muestran en la Tabla 6.1 .

6.3 Diseño del módulo de funciones

El sistema de detección de objetivos de Street View en un entorno de sombra basado en una red convolucional regional consta de los siguientes módulos funcionales.
( 1 ) Módulo de carga de parámetros del modelo: este módulo llama principalmente a la capa del modelo y cualquier usuario del sistema puede obtener el directorio de almacenamiento predeterminado.
La lista de parámetros del modelo existente registrada incluye sus parámetros de entrenamiento específicos, como los parámetros de evaluación final, el número de pasos de entrenamiento,
tiempo de entrenamiento, etc., y también proporciona una interfaz para que los usuarios registrados del sistema utilicen archivos de parámetros de modelo personalizados adicionales.
(2) Módulo de inicio de sesión: Este módulo se encarga de brindar a los usuarios una entrada principal al programa, los usuarios pueden registrarse como nuevos usuarios.
También puede utilizar una cuenta existente para iniciar sesión en el sistema, o puede ingresar al sistema de experiencia como visitante. La diferencia entre visitantes y usuarios del sistema
La capa de persistencia de datos asignará espacio para que los usuarios almacenen algunos resultados históricos de predicción del sistema para facilitar la revisión posterior.
Después de que el visitante cierre el programa o salga del sistema, el sistema no retendrá los resultados de la predicción.
(3) Módulo de predicción de imágenes: este módulo es uno de los módulos de acceso principales entre la capa de vista y el usuario. El usuario debe cargar este módulo de forma independiente.
Las imágenes del mapa se utilizan para la predicción y, al mismo tiempo, cuando la computadora está conectada a Internet, el usuario también puede proporcionar una conexión URL para cargar el mapa de la red.
cortes para la predicción.
(4) Módulo de predicción de video: los usuarios pueden cargar videos locales o proporcionar URL de videos en línea , y el sistema
El video se analiza y luego se detecta cuadro por cuadro y finalmente se devuelve el video de detección de resultados.
(5) Módulo de predicción de fotografías: los usuarios pueden usar una cámara externa u otro equipo fotográfico intercambiable en caliente para tomar fotografías, y el sistema
Al llamar directamente a estos dispositivos para obtener imágenes, los usuarios pueden presionar las teclas especificadas en el teclado para tomar fotografías y luego hacer predicciones.
Se puede habilitar el modo de captura en tiempo real, con predicción automática de fotografías, para que los usuarios no necesiten presionar botones manualmente para tomar fotografías.
(6) Módulo de almacenamiento y borrado: este módulo está conectado a la capa de persistencia de datos y es responsable de analizar los resultados de la predicción bajo la condición de que el usuario inicie sesión.
Guarde automáticamente y cuando el usuario se dé cuenta de que no es necesario guardar los resultados, puede usar la función de borrar caché para borrar los resultados con un solo clic.
El archivo de resultados generado por la predicción.

6.4 Proceso del sistema

Como se muestra en la Figura 6.3 , todo el sistema de detección de objetivos de Street View en un entorno de sombra basado en una red convolucional regional está a nivel de usuario.
El proceso se puede dividir aproximadamente en 3 partes:
Primero, abra la página de inicio del sistema y seleccione los parámetros del modelo. Los visitantes solo pueden usar la experiencia de parámetros proporcionada por el sistema de forma predeterminada. Las notas del sistema
Los usuarios registrados también pueden personalizar los archivos de parámetros cargados en otras ubicaciones y luego seleccionar una función de inicio de sesión para guardar datos según los resultados de la predicción.
Debe elegir iniciar sesión como usuario o invitado del sistema, o puede registrarse como usuario del sistema.
En segundo lugar, después de ingresar oficialmente al sistema, los usuarios pueden usar la función de predicción de imágenes y la función de predicción de video haciendo clic en diferentes botones.
Hay tres métodos principales de predicción de medios: función y función de predicción de fotografías. En la función de predicción de imágenes, los usuarios pueden seleccionar directamente imágenes locales o
Proporcione URL de imágenes de red para uso del sistema; en la función de predicción de video, los usuarios deben cargar videos locales o URL de videos de Internet .
Los archivos fuente de video del sistema se proporcionan para la predicción y el video resultante se puede reproducir, pausar, etc. directamente; módulo de predicción de fotos
, el sistema llamará directamente al equipo de cámara del usuario para capturar la foto, y el usuario también puede decidir el momento de tomar la foto.
En tercer lugar, una vez completada la predicción, el usuario puede operar con los resultados de la predicción. Todos los resultados de la predicción se guardarán de forma predeterminada y el usuario también puede
Puede optar por borrar este archivo de resultados de predicción con un solo clic y proporcionar una interfaz de visualización de resultados históricos para revisar los resultados de predicciones anteriores.
Si el rol de usuario que ha iniciado sesión es el de invitado, la información histórica no se guardará y no habrá permiso para consultar información histórica ni borrar resultados.
La necesidad de documentos frutales.

6.5 Diseño e implementación del sistema

Esta sección muestra la visualización del módulo y explica el sistema de detección de objetivos en escenas callejeras en un entorno de sombra basado en una red convolucional regional.
Se subdivide específicamente en módulos funcionales principales y otros módulos auxiliares. Para los módulos principales, se proporcionan capturas de pantalla de la interfaz del sistema e introducciones de funciones específicas.
Para otros módulos auxiliares, se proporciona un breve análisis y una explicación parcial.

6.5.1 Diseño e implementación de módulos centrales del sistema

( 1 ) Módulo de interfaz principal del sistema
La interfaz principal de este sistema proporciona acceso a algunas funciones básicas, similar al centro de servicio. Los usuarios pueden hacer clic en varios botones de función.
Realice las funciones principales correspondientes, como se muestra en la Figura 6.4 a continuación. La interfaz principal del sistema consta de varios botones y un área de visualización central. Cada botón
Hay una descripción de texto que indica la dirección de la función. La función que necesita mostrar el resultado procesará el resultado y lo pasará al campo de visualización central. El usuario puede
Observe directamente los resultados previstos o los resultados intermedios en tiempo real.
La interfaz principal del sistema incluye principalmente las entradas de funciones para seleccionar imágenes, seleccionar videos, tomar fotografías, iniciar predicciones y eliminar caché.
almacenamiento e información histórica, entre los cuales los tres módulos funcionales de selección de imágenes, selección de videos y toma de fotografías llamarán a la central
Mostrar dominio para mostrar los archivos de vista previa originales de imágenes y videos. Cuando se hace clic en el botón de función de resultado de predicción, se procesarán las imágenes y videos.
Análisis y predicción, los resultados finales de la predicción también se transmitirán al dominio de visualización central, brindando a los usuarios la retroalimentación de información más directa y facilitando la interacción entre humanos y computadoras.
bien.
(2) Módulo de predicción de imágenes y predicción de videos
Cuando el usuario hace clic en el botón Seleccionar imagen o Seleccionar video, aparecerá una subinterfaz emergente pidiéndole al usuario que seleccione una imagen o video local.
Utiliza imágenes o videos de red. Para imágenes o videos locales, como se muestra en la Figura 6.5 , aparece un cuadro de selección para que el usuario seleccione imágenes o videos locales.
Para videos, imágenes o videos en línea, el fondo verificará el enlace URL, determinará si se puede descargar y avisará al usuario, etc.
Una vez que el sistema completa la operación, sin importar qué método elija el usuario para cargar imágenes o videos, el área de visualización central mostrará los archivos fuente.
pantalla, la barra de estado también mostrará la ruta del archivo fuente actual para garantizar que el usuario no haya seleccionado el archivo fuente incorrecto. Después de que el usuario confirme la información del archivo fuente,
Puede hacer clic en el botón Iniciar predicción y luego el sistema le pedirá que espere. Después de que los datos se procesen en segundo plano y se complete la predicción del modelo previamente entrenado,
Los resultados de la predicción sobrescribirán directamente los archivos fuente en el campo de visualización central, y el campo de visualización central se actualizará para mostrar los resultados de la predicción, lo cual también es conveniente para la visualización.
Los usuarios pueden observar los resultados de la predicción inmediatamente y completar sus necesidades. Al mismo tiempo, el sistema guardará automáticamente los resultados de la predicción para los usuarios no turísticos.
fruta.
(3) Módulo de predicción de fotografías
Los usuarios pueden utilizar la función de predicción de fotografías manual haciendo clic en el botón Tomar foto, que llamará automáticamente a la cámara del dispositivo o a la cámara externa.
Aparecerá el encabezado y aparecerá la imagen capturada actualmente por la cámara. El usuario puede observar la imagen y determinar manualmente el tiempo de acuerdo con las indicaciones del sistema y presionar el botón.
Tome una fotografía. La Figura 6.6 a continuación muestra la interfaz de fotografía. Una vez completada la fotografía, los resultados de la fotografía también se transferirán al área de visualización central. El usuario puede
Después de un análisis u observación cuidadosos, también puede hacer clic en el botón Iniciar predicción para que el sistema inicie la predicción en segundo plano y los resultados de la predicción serán los mismos.
Presentado en el campo de visualización central. La función de predicción de fotografías también tiene un modo de disparo continuo para que los usuarios elijan. Los usuarios pueden verificar el modo de disparo continuo debajo de la foto tomada.
Haga clic en la casilla de verificación del modo de disparo y active el cuadro de texto a la derecha. El usuario puede decidir la frecuencia del disparo continuo. El modo de disparo continuo estará en la configuración dada por el usuario.
Se llama automáticamente a la cámara para tomar 9 fotos seguidas bajo la frecuencia. Una vez completada la toma, estas 9 fotos se componerán en una imagen de cuadrícula de nueve cuadrados y se transferirán a la computadora.
Se muestra el campo de visualización central. Después de que el usuario confirme que es correcto, puede hacer clic en el botón de inicio de predicción. El sistema realizará la predicción en estas 9 imágenes en segundo plano.
Predicción, el resultado final de la predicción también se muestra en el área de visualización central en forma de una cuadrícula de nueve cuadrados. Para usuarios no turísticos, tome una foto del resultado de la predicción.
También se guardará automáticamente.

6.5.2 Visualización de otros módulos del sistema

( 1 ) Módulo de inicio de sesión
La interfaz de inicio de sesión del sistema es la principal responsable de especificar los parámetros del modelo back-end del sistema y confirmar la identidad y el rol del usuario, y es la clave de todo el sistema.
La primera entrada, como se muestra en la Figura 6.7 , primero mostrará al usuario los parámetros de backend predeterminados y los valores de evaluación correspondientes de la versión actual del sistema, incluidos
Incluyendo tasa de precisión, tasa de recuperación, número de pasos de entrenamiento, valor de pérdida y tiempo de liberación de parámetros, etc. En este momento, la función de inicio de sesión puede elegir entre turista y registrado.
Usuarios registrados. Los visitantes inician sesión para ingresar directamente a la interfaz principal y bloquear los parámetros actuales. Los usuarios registrados ingresan la contraseña de su cuenta para ingresar al sistema y pueden
Llame a la información de predicción histórica del usuario actual. En esta interfaz, los usuarios también pueden cargar archivos de parámetros para lograr efectos de predicción más ricos.
Sin embargo, esta función solo admite usuarios registrados; los usuarios invitados no pueden personalizar archivos de parámetros.
(2) Módulo de información histórica
Para los usuarios invitados, esta interfaz estará directamente oculta. Para los usuarios registrados, como se muestra en la Figura 6.8 , esta interfaz llamará al usuario actual.
Los datos de la base de datos se enumeran por nombre de archivo y tiempo de predicción. Haga clic en un registro detallado para verlo.
El área de visualización central muestra los resultados de predicción del registro. Haga clic en el botón Ampliar para admitir la visualización en pantalla completa de los resultados. Al mismo tiempo, para las siguientes
Los parámetros del modelo de terminal también tendrán descripciones relevantes para facilitar a los usuarios extraer la información disponible en registros históricos y también usarse para comparar archivos con el mismo archivo.
Se comparan y analizan los resultados de predicción de diferentes parámetros del modelo.

Supongo que te gusta

Origin blog.csdn.net/qq_36130719/article/details/133266271
Recomendado
Clasificación