Práctica de aplicación del control remoto de video basado en la red 5G: tecnología y aplicación de video de baja latencia

Este intercambio se dividirá en tres partes: la primera parte presenta las tecnologías clave involucradas en el video de baja latencia, incluido el códec de video de baja latencia, la transmisión de video, el marco de procesamiento de video de baja latencia, la captura y visualización de video; la segunda parte se enfoca en Requisitos para video de baja latencia contra redes débiles en el entorno 5G, que incluyen: detección de estado de red débil, control de congestión, etc.; la última parte combinará resultados de pruebas reales para presentar ejemplos de aplicación en escenarios como control remoto de puertos y conducción remota .

Texto/Shen Can

Organizar/LiveVideoStack

El desarrollo de la tecnología de red ha provocado el debate sobre la baja latencia. En el pasado, el retraso de la red era relativamente alto y el procesamiento del chip tomaba tiempo, por lo que el retraso no ha sido perfecto. Con el desarrollo de la tecnología, la mejora de las capacidades de procesamiento de chips y el desarrollo de redes, el video de baja latencia se puede usar en algunos escenarios especiales, por lo que el contenido principal del que quiero hablar hoy incluye: Primero, coloque el "video de baja latencia Dejando a un lado el problema, salga y luego presente cómo resolver estos problemas y tecnologías relacionadas, y finalmente presente los escenarios de aplicación de video de baja latencia.

-01-

Problemas que enfrenta el video de baja latencia

ccf042b3993c0a18e8da0a5855628ea2.png

La latencia es un indicador técnico clave que se encuentra en la producción de video. En la comunicación normal cara a cara en tiempo real, generalmente un retraso de 200 ms puede lograr un estado satisfactorio, porque la velocidad de respuesta de la comunicación entre personas no es tan rápida. Sin embargo, para la comunicación hombre-máquina o el acoplamiento máquina-máquina, los requisitos de latencia serán relativamente altos, porque la velocidad de respuesta de la máquina es mucho más rápida que la de los humanos. Por ejemplo, para un vehículo de ingeniería de velocidad media controlada, generalmente una velocidad de retraso de 100 ms puede cumplir con los requisitos de control. Un ejemplo típico es el control remoto del brazo mecánico en el vehículo.

Además, los juegos también tienen requisitos de latencia relativamente altos, preferiblemente por debajo de 100 ms, preferiblemente alrededor de 50 ms o 60 ms. Porque aunque el juego está controlado por humanos, controla escenas de juego más intensas, como conducir y disparar, y el juego puede perderse con un poco de retraso. Por lo tanto, el retraso es muy crítico para la experiencia del usuario. La velocidad de conducción remota suele ser de 60 km/h, y si el retraso es de unos 60 ms, habrá un error de aproximadamente 1 metro al controlar. Otro ejemplo es controlar un dron en una carretera. La "carretera inteligente" requiere que el operador sea notificado si hay un accidente u obstáculo adelante mientras lo controla. Por lo tanto, la demora debe alcanzar los 30 ms para cumplir con los requisitos del usuario.

309d449e42835d7a52c834907b29c023.png

Entonces, ¿cómo se define la latencia?

El retraso generado desde la generación del video, desde la recopilación hasta la visualización (en escenarios de juegos en la nube, es decir, desde el momento en que se genera el video), es decir, el video se envía, se transmite por la red, se recibe y luego a la pantalla. El enlace pertenece al retardo de terminal de extremo a extremo. El retraso en la sección central también se puede calcular por separado, por ejemplo, desde el extremo de envío hasta el extremo de recepción, sin calcular el retraso de la cabeza y la cola. Muchos enlaces en el medio causarán retrasos, por lo que se debe calcular el retraso de cada enlace, y es necesario considerar cuánto puede alcanzar el indicador, para que se pueda definir el retraso completo. Al mismo tiempo, se debe considerar la fuente del contenido, por ejemplo, si el contenido se genera desde una determinada nube, también se debe calcular la demora. Por lo tanto, los indicadores técnicos deben tener en cuenta todos los aspectos. Lo anterior es su definición.

d1818bea38ddde4c878e79bd251f0fd7.png

La lista se puede usar para estimar cuánto retraso causará cada enlace y qué enlaces son propensos a retrasarse. El primer enlace es el muestreo, si son 30 fotogramas por segundo, habrá un intervalo de unos 33 ms. Este (proceso) en sí mismo también se retrasa, porque la adquisición tiene un intervalo fijo, y su intervalo fijo es el retraso del muestreo. El siguiente es el procesamiento previo de los medios, que es principalmente el retraso que trae el chip ISP, como la reducción de ruido, la corrección de distorsión, etc., en los que los cálculos y la transmisión de datos causarán retrasos. Esta parte está relacionada con sus capacidades de procesamiento. También podemos Estima.

Luego está el búfer de envío, la transmisión de red y el búfer de recepción. Estos también toman tiempo, porque el ancho de banda de la red es limitado. Si el ancho de banda es muy amplio, el tiempo de transmisión puede ignorarse. Los problemas que esto causará se describirán en detalle más adelante. Esta parte es la principal fuente de retraso.

Después de eso está el posprocesamiento. El posprocesamiento es lo mismo que el preprocesamiento, ambos pertenecen al procesamiento de medios. El retraso de esta parte es relativamente fijo y su valor no fluctuará demasiado. La fluctuación (retardo) de la parte media de la red es relativamente grande, cambia con las condiciones de la red y los cambios ambientales, y también está relacionada con la pérdida de paquetes o no. La pantalla final, después de la decodificación, ingresa al búfer de pantalla y la pantalla, y también hay un retraso de espera para la pantalla. Según los cálculos anteriores, de acuerdo con las capacidades actuales del sistema, si no se calcula el retraso de muestreo, el (retraso) es de aproximadamente 20 a varios cientos.

ed6e08c06032e819126bd1f6f153e2b7.png

Analicemos las razones del retraso una por una. Uno es la sobrecarga de cálculo. Por ejemplo, el cálculo es muy complicado durante el procesamiento, ya que involucra algunos cálculos numéricos, como balance de blancos, reducción de ruido, eliminación de ruido, codificación y decodificación. Estos son cálculos grandes y requieren tiempo. Tiempo Probablemente entre algunos milisegundos a decenas de milisegundos. Esta parte pertenece a la sobrecarga de cálculo.

La segunda fuente (inductora de latencia) es el retardo de transmisión. La red en sí tiene un retraso. No importa cuál sea la red, la transmisión de luz lleva tiempo, y el procesamiento de los enrutadores también lleva tiempo. No importa qué método (transmisión) se utilice, lleva tiempo. La cantidad de datos de video es relativamente grande y el cuadro de video grande varía desde cientos de kbps hasta varios M. La transmisión se realiza en un ancho de banda limitado, suponiendo una red de unos 50M o 100M, se tarda unos milisegundos en transmitir un vídeo de 2M. A través del diagrama de forma de onda de los datos de transmisión de video a continuación, se puede ver que el flujo de código del video es inestable, es decir, la diferencia de tamaño de cada cuadro es relativamente grande, el tiempo requerido para cada cuadro en transmisión es incierto , y el tiempo necesario para que cada cuadro llegue al destino El tiempo es diferente, es fijo, por lo que el tiempo de llegada es impredecible. Los datos de video antes de la compresión alcanzan el nivel de aproximadamente 1G, es decir, los datos tienen una gran cantidad de datos antes de la codificación y después de la decodificación, y lleva tiempo mostrarlos y procesarlos en el dispositivo terminal. Por lo tanto, el retraso de la transmisión es un aspecto que debe tenerse en cuenta.

También hay anti-pérdida de paquetes. Cuando la calidad de la red es relativamente mala, se debe usar un "precio" para lidiar con la inestabilidad de la red o la pérdida de paquetes de la red. Por lo general, para garantizar la experiencia del usuario, el "precio" que se utilizará es el intercambio de demora. Por lo tanto, es necesario aumentar el retraso para resistir (pérdida de paquetes), como la retransmisión. Esta parte del retraso es variable y sigue cambiando a medida que cambia el estado de la red. Luego está el retraso entre la programación de tareas. Para unir los pasos anteriores, se deben organizar diferentes módulos y diferentes tareas, como una línea de montaje. Si el flujo no está bien organizado, habrá "espera": los datos aún no han llegado, no puedo procesarlos y necesito esperar a que lleguen antes de poder comenzar. Entre ellos está el retraso de la espera.

e19d4cd6beb32f4f62827d9f482d6af2.png

Luego observe la relación entre la latencia, el ancho de banda y la potencia informática. Son triangulares y mutuamente contradictorias. Si desea limitar la potencia informática y ahorrar potencia informática, la demora puede aumentar. Si se da más potencia de cómputo, el retardo o ancho de banda ocupará menos, existiendo una relación contradictoria entre ambos. Si el ancho de banda es muy alto y suficiente, la demora definitivamente disminuirá, porque el tiempo dedicado a la transmisión es menor, y si el ancho de banda es alto, la antipérdida de paquetes también es fácil de hacer y la anti-débil requerida. el retraso de la red es relativamente bajo. Así que hay una relación triangular entre ellos. En última instancia, el retraso se puede expresar como una función relacionada con el ancho de banda, la potencia informática y la calidad del video. Una alta calidad de video requiere más retraso y consumo de energía informática, lo que afectará la calidad del video. Un alto poder de cómputo significa un alto costo, y una alta ocupación de ancho de banda también significa un alto costo, por lo que es necesario encontrar un equilibrio. ¿Bajo qué tipo de calidad y qué tipo de requisitos de demora, es razonable usar restricciones de cuánto costo? No es necesario elegir el mejor chip. Debe ser mejor si tiene una mayor potencia de procesamiento, una configuración más alta y una configuración de ancho de banda más alta. Es una relación equilibrada, y debe estar equilibrada y optimizada. Por supuesto, la calidad de video y la demora también son contradictorias entre sí.Si los requisitos de calidad de video son altos, la tasa de bits será alta.

f4d1ff922abd4a38b15f487d84521a43.png

Mira la imagen de la transmisión de video. Diferentes líneas representan diferentes condiciones, algunas son juegos, algunas son discursos y chats. La curva cambia en diferentes condiciones y el flujo de código no es muy regular. Aunque hay una línea promedio a largo plazo, sube y baja en poco tiempo. Esto se debe a que la complejidad del video no es la misma. , la complejidad del contenido está relacionada con el flujo de código. Cuanto más complicado sea el contenido, o la cámara se mueva violentamente, o cambie la distancia, la tasa de bits aumentará naturalmente, porque el ancho de banda (como el ancho de banda de 4M) no se puede suprimir y aumentará. Debido a que la codificación debe garantizar que la calidad esté dentro de un cierto rango y que no sea tan mala, entonces el (flujo de código) inevitablemente aumentará porque la cantidad de información es muy grande. Si se reduce la tasa de bits, la calidad de salida final del codificador será deficiente y verá muchas imágenes poco claras y borrosas. La complejidad del contenido también incluye el contenido dentro del marco. Si el contenido del marco es muy rico, también afectará la salida del flujo de código. Por lo tanto, la transmisión de video fluctúa más violentamente.

Otro factor que afecta la tasa de bits es el cuadro I y el cuadro P del video. El tamaño del cuadro clave es generalmente 5 o 10 veces mayor que el del cuadro P, según la complejidad del contenido y la complejidad del cuadro. Si la complejidad intratrama es alta, 100k y 200k son normales, y la trama P puede ser solo una décima parte de ella. Debido a que fluctúa violentamente, el tiempo de transmisión de cada cuadro en el camino es diferente.Incluso cuando la red es buena, el tiempo de llegada y recepción también es diferente, y el retraso de llegada cambia. Algunas tramas pueden ser muy grandes y deben dividirse en cientos de paquetes, y la transmisión no se completa hasta que se reciben todos los paquetes, y el tiempo empleado en el camino variará mucho. Al mismo tiempo, los cambios en el flujo de código tendrán un cierto impacto en la red. Suponiendo que varias cámaras transmiten en el mismo canal, varios picos de onda están todos juntos y estarán abarrotados entre sí, el tiempo de espera será aumentará considerablemente y aparecerá más tráfico Retrasos impredecibles. Todas estas cuestiones deben ser consideradas.

c1510ff962ee8ed0d6865968ad073787.png

La visualización también se retrasa. Una vez que se decodifica el video, la GPU lo procesa y luego lo muestra el sistema operativo. Como se muestra en la figura, es el proceso de visualización en Android, y es el mismo en otros sistemas. Hay un servicio de visualización, y el servicio se actualizará de vez en cuando. Si se requiere el dato "1" para debe mostrarse con poca demora, debe mostrarse en el primer punto de intervalo. Antes de procesarlo y representarlo bien, por ejemplo, si necesita superponer un texto, debe procesarlo antes de esto y luego actualizarlo la próxima vez período. Además del retraso en la figura, también está el tiempo de actualización de la pantalla.El tiempo de actualización de la pantalla es relativamente corto y algunas pantallas son de solo 1 milisegundo. El sistema operativo está controlado por software, y el retraso aquí está relacionado con la frecuencia de actualización, por ejemplo, si la frecuencia de actualización es de 100 Hz, habrá un intervalo de 10 milisegundos. Este es un retraso fijo causado por el sistema operativo y el intervalo de actualización. Mirando la imagen de "3" en la figura nuevamente, "3" abarca dos períodos de tiempo, y su visualización esperará más tiempo, y no actualizará la visualización antes de que se complete el procesamiento anterior. Por lo tanto, el enlace de visualización también se retrasa.

Lo anterior es el problema del video de baja latencia, veamos cómo solucionar estos problemas.

d2ecf4aac71d3cc23e1deb06b2325594.png

Lo reduzco a transmisión y fuente (dos partes). La transmisión se refiere principalmente a la transmisión de baja latencia, es decir, cómo lograr (transmisión) rápida, estable y resistente a la pérdida de paquetes. La capa de origen incluye la parte de procesamiento frente a la cámara hasta la pantalla final. Si se pueden resolver todos estos problemas, se logrará el objetivo de resolver el problema del retraso.

33f1d9d0e7aae96f172527f2dc411617.png

Procesamiento y codificación de video en paralelo. El video en sí está muestreado y se puede dividir en tiras, el diagrama anterior se puede dividir horizontalmente o en cuartos. Los bloques de envío se pueden calcular en paralelo, y la paralelización de imágenes es el principal medio para resolver el retraso. Por supuesto, la paralelización también traerá algunos problemas. La paralelización se realiza a través de la división. Al calcular, cada bloque se puede calcular y procesar por separado, incluida la codificación posterior. Se puede usar el mismo método, de modo que a través del paralelo Reduzca la demora a una fracción del original Por supuesto, (para lograr la paralelización), cada cuadro se procesa por separado sin asociación, lo que causará algunos problemas, como el balance de blancos.Algunos algoritmos de procesamiento necesitan calcular primero el cuadro completo o hacer el cálculo de compensación más tarde. Debido a que existe una correlación entre cada cuadro y cada cuadro, incluida la codificación, una vez que se divide durante el cálculo, se procesará en pantalla completa para realizar la paralelización.

07ce11826d0b6a013d72ad310deac6e7.png

¿Qué tiene de malo la paralelización? Una es que después de la partición, la relación de compresión de Slice también se ve afectada.No solo se reducirá la sobrecarga del encabezado del marco, sino también la referencia mutua entre Slices, lo que conducirá a una disminución en la relación de compresión. Además, durante la decodificación de video, se requiere filtrado para cruzar el límite del bloque, por lo que la paralelización de la decodificación no es tan buena como la paralelización de la codificación. Por lo tanto, la paralelización generalmente se realiza durante la codificación y la paralelización de la decodificación es relativamente débil. Entonces al hacer el procesamiento de imágenes, hay un problema de consistencia entre diferentes bloques, como la intensidad de la luz, y algunas áreas son más oscuras, es necesario hacer un cálculo unificado para saber cómo tratar con otros bloques.

Por lo tanto, si la paralelización se realiza bien, el tiempo de codificación y el tiempo de preprocesamiento se pueden reducir considerablemente. Aproveche al máximo la potencia informática y reduzca el retraso mediante la paralelización.

e1926a2eb516c89d71bf48239fceb067.png

Otra es ajustar dinámicamente el intervalo de fotogramas clave para reducir las fluctuaciones de flujo. Mirando la imagen de arriba, si los fotogramas clave aparecen al mismo tiempo, el retraso de estos dos fotogramas se verá afectado. En este momento, hay una fluctuación relativamente grande en un instante.Cuando llegue al extremo receptor, parecerá que este marco lleva mucho tiempo en el camino, y otros marcos son relativamente pequeños. Sin embargo, con el fin de garantizar la fluidez y reducir el problema de la transmisión rápida y lenta durante la visualización, son necesarios el almacenamiento en búfer y la espera. Para poder mostrar la reproducción sin problemas, para no mantener el avance rápido y el avance lento, hará que todos los cuadros traigan un retraso adicional, y se puede compensar lentamente a través del almacenamiento en búfer dinámico. Esta situación debe evitarse para evitar fotogramas clave simultáneos.

En lugares donde los requisitos de retraso son sensibles, es mejor tener la menor cantidad posible de fotogramas clave. Porque cuantos menos fotogramas clave, más fácil es suavizar el flujo de código y es menos probable que fluctúe el tiempo de cada fotograma en el camino. Por supuesto, algunas escenas requerirán un intervalo fijo, como un cuadro clave en unos pocos segundos. Si no hay una terminal para unirse a la visualización temporalmente, el intervalo se puede hacer más largo, lo que es beneficioso, y la relación de compresión también es más alta. Pero si se requiere que algunos intervalos de escena sean cortos, trate de evitar que aparezcan al mismo tiempo. Cuando transmita varios canales de video en medio del mismo canal, intente escalonar los fotogramas clave para evitar que aparezcan al mismo tiempo y reducir la colisión de fotogramas I.

e825842a6a76476dff26605ae1ff2544.png

En medio del proceso de transmisión, los datos codificados se transmiten inmediatamente para minimizar la espera. Cuántos datos se transmiten inmediatamente, sin esperar a que se compile todo el marco, porque según la codificación paralela, los datos pueden salir uno tras otro, por lo que se puede reducir la espera. Es una cuestión de transmisión.

5f16c98339b29ed8b5d86d366fe3a15a.png

En algunos escenarios, el retraso es principalmente fijo, mientras que en otros cambia, porque está relacionado con la red, y muchos caminos de la red son inciertos. Dónde está el atasco de tráfico, dónde está el problema, traerá una gran incertidumbre. Por lo general, la protección contra la pérdida de paquetes utiliza la corrección de errores hacia adelante o la retransmisión, o una combinación de ambas. Si se trata de un escenario sensible a la demora, primero puede usar FEC para reducir la tasa de pérdida de paquetes, pero no puede eliminar por completo la tasa de pérdida de paquetes, según su modelo de pérdida de paquetes. Si el modelo es muy uniforme, FEC puede eliminarlo a casi nada; pero, por lo general, la corrección de errores de reenvío en sí misma no puede eliminarlo por completo, pero puede reducir la tasa de pérdida de paquetes y la retransmisión ocurre después de la disminución. La probabilidad será relativamente baja. Cuantos más tiempos de retransmisión, mayor será el tiempo de RTT en el camino, habrá bloqueos, afectará la recepción y visualización de videos posteriores y habrá una gran cantidad de datos esperando en el búfer.

Además, la tasa de redundancia de la corrección de errores de reenvío en sí misma es muy alta, lo que generará un desperdicio y un consumo de ancho de banda adicionales. Pero es un equilibrio. Si está dispuesto a usar el ancho de banda, la demora se puede reducir; si cree que el ancho de banda es muy valioso y no quiere consumir demasiado, la demora puede aumentar y la corrección de errores de reenvío se puede agregar menos o no, además porque a veces puede no haber beneficios. Cuando hay mucha pérdida de paquetes o el modelo de pérdida de paquetes no cumple con ciertas condiciones, es rentable no usar FEC. Esto es un equilibrio. Si se puede detectar a través del estado de la red y se puede ajustar dinámicamente de acuerdo con la tasa de pérdida de paquetes actual y el tiempo RTT, si se alcanza un equilibrio, entonces será posible saber qué método es el más rentable en qué escenario. .

El propio motor de comunicación puede cumplir varias condiciones. Por ejemplo, las condiciones sensibles al retraso, o las condiciones para equilibrar el ancho de banda y los requisitos de retraso, le indican al motor que existen estos requisitos de preferencia y puede realizar algunos ajustes de política para lograr el equilibrio final entre el retraso y el consumo de ancho de banda.

77c4479e424123e0031b16256fbd09ba.png

También hay tecnología inteligente de regulación de velocidad. El receptor retroalimenta el tiempo de recepción de cada paquete, y el extremo emisor puede estimar el estado de la red en función de la diferencia entre el tiempo de recepción y el tiempo de envío y, finalmente, obtener información como el ancho de banda de la red, la tasa actual de pérdida de paquetes y la demora. Si la red percibe esta información, la tasa de código se puede ajustar dinámicamente. En la red móvil, la tasa de bits y el ancho de banda fluctúan. Cuando se interfiere, bloquea o tiene cambios climáticos, su señal inalámbrica también experimentará una proporción relativamente grande de pérdida de paquetes o caída de ancho de banda dentro de un período de tiempo. Cuando el ruido de la señal inalámbrica aumenta, el ancho de banda de toda la red disminuirá y la tasa de pérdida de paquetes aumentará. En este momento es necesario monitorearla dinámicamente, estimar cómo está la red y en qué estado se encuentra, obtener parámetros como la tasa de pérdida de paquetes y al mismo tiempo percibir el contenido de video.

El llamado contenido se refiere a la complejidad del contenido, que puede ser representado por la complejidad del tiempo y la complejidad del espacio. La complejidad del tiempo es el cambio entre cada cuadro, como si el movimiento es severo. La complejidad espacial es la complejidad de la imagen dentro de un cuadro. La decisión de estimar dinámicamente la tasa de código en función de estos puede hacer que la tasa de código sea más razonable, alcance el valor óptimo y reduzca la intermitencia y el retraso.

El ajuste de velocidad inteligente puede ajustar dinámicamente la tasa de código en tiempo real según varias condiciones. La tasa de bits no se puede ajustar con demasiada frecuencia, y no se puede cambiar inmediatamente en un segundo. Eso también es problemático, y también debe tener un cierto límite de tiempo de ajuste. En esta figura se puede ver que si el tiempo de ajuste es razonable, a medida que se recupera el ancho de banda de la red, la tasa de bits también puede recuperarse. Por supuesto, la recuperación es una recuperación lenta y el declive es un declive rápido. Para minimizar la intermitencia, el ancho de banda debe disminuir rápidamente y aumentar lentamente.

a164ba7f497390f14f7247fbe1dcb0e9.png

Otro problema es la ruta de transmisión más corta. Si se trata de un extremo a otro, la solución de este problema en ambos extremos no se soluciona por completo, porque el tiempo empleado en la transmisión por carretera está relacionado con el lugar al que van los nodos de la red. Si se pueden detectar las condiciones de la carretera entre los nodos de la red y se pueden obtener la demora y el ancho de banda de diferentes rutas, se puede encontrar la ruta de demora mínima para resolver el problema de la demora, de modo que las transmisiones de la red puedan seleccionar rutas de forma autónoma. Además de la red anti-débil de medios de extremo a extremo anterior, la anti-pérdida de paquetes se implementa entre un extremo a otro y entre dos nodos de medios, y se puede lograr una solución completa después de la integración. Cada nodo ha sido optimizado para resolver este problema.

-03-

Casos de aplicación de video de baja latencia

Finalmente, hablemos del escenario de la aplicación.

210127004661fab423a05eb3570be841.png

Las aplicaciones 5G han traído algunos cambios a la industria. En el pasado, muchos controles estaban cableados, como cables de red y fibras ópticas. Pero con la red móvil, algunas cosas que requieren movimiento y no son fáciles de enrutar (cosas, escenas), la red móvil se puede aplicar a estos nuevos escenarios de aplicación, como líneas de producción, aplicaciones industriales, conducción automática, control remoto o algunas escenas más peligrosas, como vagones de minas subterráneos, etc. Los parques industriales, los puertos, las minas de carbón, los hospitales y las comunidades inteligentes son aplicaciones potenciales en el futuro. Este también es un beneficio que trae la red móvil, es decir, los dispositivos de comunicación pueden resolver problemas a través de la red móvil.

e6389f4b24c766bcceae2fd7df4f30d1.png

Esta es una puerta de enlace hecha por ZTE, con una antena 5G, que se puede conectar a varias cámaras y también se puede conectar a puertos industriales y de control de vehículos, con interfaces ricas. Se puede conectar a una cámara SDI y el retraso de este tipo de cámara es relativamente bajo. También hay acceso a la cámara IP, que ya codificó y empaquetó el video. Finalmente, para el control de equipos industriales, los equipos frontales pueden ser controlados a través de la consola remota. La latencia de una cámara IP depende de la latencia de la codificación y captura de la cámara. Debido a que tiene una antena 5G, se puede controlar de forma remota.

6326fa5345d79c185353730e966dc9ba.png

Otra opción es tener una puerta de enlace a través de la cual se transcodifique el video capturado por la cámara frontal. Después de la transcodificación, proviene de la estación base a través de la antena y luego transmite el video de regreso. Este es nuestro otro dispositivo, que puede transcodificar o sintetizar la puerta de enlace, y la imagen también se puede sintetizar en él.El dispositivo de puerta de enlace de síntesis puede complementar el equipo anterior.

4268c3b51489cf687d1289e5c39e6647.png

El caso 1 es una mina de carbón. A la izquierda está la maquinaria de la mina de carbón. En el eje, si coloca la puerta de enlace en el automóvil, puede colocar algunas cámaras en la maquinaria, y el centro de control remoto puede ver el video en la mina, para que no necesita gente para conducir por debajo. Control Center lo controla. Debido a que se estima que el requisito de retraso de esta máquina es suficiente a 100 milisegundos, y su velocidad de movimiento no es rápida, puede resolver el problema del entorno de trabajo peligroso de los trabajadores subterráneos. Esta es una aplicación más valiosa para reducir los costos de mano de obra a través del control remoto.

1c1d4cdb8f128071e5b20486a480c7e5.png

Nadie colecciona cartas. Esto es similar al automóvil delantero, pero puede tomar varias cámaras SDI o IP y luego completar el control a través del automóvil. En el medio, se construirán estaciones base 5G y equipos de red central. Hay 2 módulos 5G en el interior para respaldo, que brindan una experiencia de red anti-débil, admiten cámaras onvif y admiten acceso a cámaras IP. Después de llegar localmente, se puede cablear.

56363653a15377507c1ded43bdd8e491.png

Esta escena está en el puerto. Hay grúas de pórtico (como equipo) en el puerto, y se pueden colocar 20 o 30 cámaras en cada grúa, todas controladas por personas en la sala de control. Este tipo de escena requiere que las personas puedan cambiar de cámara, y se requiere un poco de zoom después de la transmisión, para que el conductor pueda controlar mejor durante la operación. En el pasado, este tipo de trabajo se realizaba con cable, fibra óptica o cable de red. Debido a que el entorno es relativamente duro, existe un cierto costo de mantenimiento. Si se reemplaza por uno inalámbrico, el costo de mantenimiento se reducirá relativamente. Puede proporcionar un retraso de 50-80 milisegundos, y esta sección en la red inalámbrica es de aproximadamente 10 milisegundos, lo que puede resolver el control remoto de la escena de la grúa en tierra. Su ventaja es que el conductor puede cambiar libremente la cámara cuando controla la grúa pórtico, y la eficiencia de producción seguirá mejorando después de ser inteligente.

36fd6a802a8831e744be300ffea8c747.png

También está el Internet de los Vehículos. Un escenario del Internet de los Vehículos se usa en el automóvil y el otro se usa en la unidad de prueba en carretera. La unidad de prueba de manejo debe devolver el video recopilado en la carretera, realizar cálculos en la sala de computadoras perimetrales durante el cálculo e informar a algunos vehículos relacionados en la carretera después del cálculo, para formar una sinergia entre la carretera y el vehículo.

Eso es todo por compartir, gracias.

641f3cb41a4451c9ba5a0f193cac112e.png

Supongo que te gusta

Origin blog.csdn.net/vn9PLgZvnPs1522s82g/article/details/131355934
Recomendado
Clasificación