Ejemplos de aplicación de visión artificial basados en ZYNQ

¿Qué es la visión artificial?

La visión artificial es una tecnología integral que incluye procesamiento de imágenes, tecnología de ingeniería mecánica, control, iluminación eléctrica, imágenes ópticas, sensores, tecnología de video analógico y digital, software y tecnología de hardware (algoritmos de análisis y mejora de imágenes, tarjetas de imagen, E / S). Tarjeta, etc.). Un sistema de aplicación de visión artificial típico incluye captura de imágenes, sistema de fuente de luz, módulo de digitalización de imágenes, módulo de procesamiento de imágenes digitales, módulo de toma de decisiones inteligente y módulo de ejecución de control mecánico.

Aplicación de la visión artificial en el mercado industrial

El uso de tecnología de visión artificial para reemplazar la mano de obra puede proporcionar eficiencia de producción y calidad del producto. Por lo tanto, la tecnología de visión artificial se utiliza ampliamente en inspección industrial (medición del tamaño y posición de las piezas mecánicas), visión robótica, reconocimiento facial, reconocimiento de matrículas, inspección óptica automática y Personas que conducen automóviles, seguimiento y posicionamiento y otros campos.

 

Cómo implementar la visión artificial

Los sistemas de visión artificial industriales incluyen: fuente de luz, lente (lente de enfoque fijo, lente de zoom, lente telecéntrica, lente de microscopio), cámara (incluida la cámara CCD y la cámara COMS), unidad de procesamiento de imágenes (o tarjeta de captura de imágenes), software de procesamiento de imágenes, Unidad de monitor, comunicación / entrada y salida, etc.

La unidad de procesamiento de imágenes, que también se puede llamar capturador de fotogramas, es un componente de un sistema completo de visión artificial, pero juega un papel muy importante. El capturador de fotogramas determina directamente la interfaz de la cámara (blanco y negro, color, analógica, digital), procesamiento de imágenes, formato de salida de imágenes, etc.

La placa de evaluación TLZ7x-EasyEVM de Tronlong basada en Xilinx Zynq-7000 SoC puede cumplir con las funciones de la unidad de procesamiento de imágenes de la visión artificial industrial.

Selección de chip de la placa de evaluación TLZ7x-EasyEVM XC7Z020, compatible con XC7Z010, recursos lógicos programables de arquitectura ARM Cortex-A9 ARM + PL-side de un solo núcleo / doble núcleo integrado del lado PS, proporciona una interfaz de cámara binocular, se puede conectar de manera flexible al módulo de salida de video.

Ejemplo de procesamiento y adquisición de imágenes binoculares de visión artificial industrial

1. Función de ejemplo

Use Video In al núcleo IP AXI4-Stream para recopilar datos de 2 cámaras (640 * 480 @ 70), y almacénelos en la memoria caché del lado PS DDR a través de vdma, y ​​luego superponga 2 canales de imágenes en video 1080P60 a través del núcleo OSD IP. Finalmente, visualice a través de la salida VGA.

2. El diagrama de bloques principal:

3. Descripción de ejemplo:

Este ejemplo utiliza el método de diseño BlockDesign.

1) Captura de video de la cámara

La captura de video utiliza Video In to AXI4-Stream IP core, que está configurado como Mono / Sensor en la rutina, 1 píxel por clk, y cada ancho de bits de datos de color es de 8 bits. La rutina utiliza 2 núcleos IP para recopilar 2 imágenes de cámara respectivamente. La configuración específica se muestra en la siguiente figura:

 

2) Búfer de transmisión de datos de video

Usando el núcleo IP VDMA (AXI Video Direct Memory Access), S2MM transfiere el flujo de video a la DDR y MM2S transfiere los datos de imagen desde la DDR. Ejemplo 2 núcleos IP VDMA, cada núcleo IP utiliza 4 frambuffer, el ancho de datos del flujo es de 8 bits, como se muestra en la siguiente figura:

 

3) Control de costura de video

Utilice la configuración de la tecnología principal IP OSD (Video On Screen Display). El OSD está configurado con una interfaz AXI4-Lite, y la resolución de salida del OSD, el número de capas superpuestas y la resolución y la posición de visualización de cada capa se establecen a través del registro de configuración. Este proyecto está configurado a una resolución de 1080P, 2 640 * 480 capas, sin interfaz AXI4-Lite. Como se muestra abajo:

 

4) Salida de pantalla de video (VGA)

Use AXI-Stream para video out IP core para mostrar video, configure su formato de video como RGB, 1 píxeles por clk, y cada ancho de bits de datos de color es de 8 bits. La configuración específica del núcleo IP es la siguiente:

El manual de usuario detallado, la información del módulo de soporte, el código fuente del caso, etc. de este ejemplo se pueden descargar haciendo clic en este enlace: http://site.tronlong.com/pfdownload

4. Conexión de hardware:

 

5. Efecto de la operación:

 

6. Video de caso:

En este marco, los usuarios pueden realizar un procesamiento de configuración más rico en imágenes de video de acuerdo con sus necesidades, como la detección de bordes, que se puede aplicar a la visión estéreo binocular, la realidad virtual y otras ocasiones.

Supongo que te gusta

Origin blog.csdn.net/a8039974/article/details/106971977
Recomendado
Clasificación