Evolución vertical y comparación horizontal de las capacidades de conducción autónoma de NIO, Xiaopeng y Lixiang

introducción

Con la llegada de la ola "inteligente", las principales empresas automovilísticas nacionales y extranjeras han iniciado una carrera armamentista en el campo de la conducción autónoma; nuevas fuerzas automovilísticas nacionales como Weilai, Xiaopeng, Ideal, etc. se están preparando y mostrando sus poderes mágicos, sólo para llegar Consigue un billete de entrada a la pista de conducción autónoma antes de 2025;

1. Ruta de evolución vertical del sistema de conducción autónoma

1. Ruta de evolución vertical del sistema de conducción autónoma NIO

665eb09f532ee6d851d202c33ecf6136.png

Ruta de evolución vertical del sistema de conducción autónoma NIO

  • En diciembre de 2017, el sistema de asistencia a la conducción NIO Pilot se lanzó por primera vez en el NIO Day;

  • En junio de 2019, el sistema vehículo-máquina NIO OS se actualizó a NIO OS versión 2.0.0 a través de OTA. El sistema NIO Pilot completó su primera actualización importante, agregando 7 nuevas funciones, incluida la conducción asistida automática de alta velocidad y la conducción asistida automática por congestión. y control de señales de giro, cambio de carril, reconocimiento de señales de tráfico, función de mantenimiento de carril, advertencia de tráfico frontal, sistema automático de asistencia al estacionamiento;

  • En febrero de 2020, el sistema vehículo-máquina NIO OS se actualizó a la versión 2.5.0. El sistema NIO Pilot agregó funciones de frenado automático de emergencia (peatones y bicicletas), asistencia para adelantar y evitar carril;

  • En octubre de 2020, el sistema vehículo-máquina NIO OS se actualizó a la versión 2.7.0. El sistema NIO Pilot agregó el uso de mapas de alta precisión y agregó una función de conducción con navegación asistida automática (NOA); sobre la base del cruce trasero. función de advertencia del vehículo, se ha agregado la función de frenado activo; se ha actualizado la función de monitoreo de fatiga del conductor y se ha agregado una nueva cámara para identificar las características faciales, oculares y de postura de la cabeza del conductor, y se puede hacer un juicio integral a través de una variedad de información;

  • En enero de 2021, el sistema vehículo-máquina NIO OS se actualizó a la versión 2.9.0. El sistema NIO Pilot agregó fusión visual de estacionamiento automático y convocatoria de vehículos de corta distancia, se optimizó la función NOA: se mejoró la función en el cambio activo de carril y incorporación Estabilidad en el escenario de entrada/salida de la vía principal;

  • En enero de 2021, el sistema de conducción autónoma NAD se lanzó en el "Día NIO", incluido el sistema de superdetección NIO Aquila NIO y la plataforma de supercomputación NIO Adam NIO, y gradualmente alcanzará la cobertura de carreteras, áreas urbanas, estacionamientos, etc. Experiencia de función de conducción autónoma punto a punto en la escena.

2. Ruta de evolución vertical del sistema de conducción autónoma Xpeng

2aa815a2f8506437627633fd254f70b1.png

Ruta de evolución vertical del sistema de conducción autónoma Xpeng

1) Xpilot2.0 : la primera versión oficial de implementación del sistema de asistencia a la conducción autónoma Xpilot

  • En enero de 2019, la actualización OTA se envió por primera vez a los usuarios de Xpeng G3. El sistema Xpilot2.0 actualizado agregó una función de invocación de llaves del vehículo y se optimizó la función de estacionamiento automático: el estacionamiento automático se adaptará a más escenas y admitirá sombras. espacios, la identificación del bloqueo del suelo es más precisa;

  • En junio de 2019, la versión 1.4 de Xmart OS se envió a los usuarios de Xpeng G3 a través de OTA. Después de la actualización, Xpeng G3 tendrá la función de asistencia de crucero inteligente ICA (asistencia de centrado de carril LCC por encima de 60 km/h);

2) Xpilot2.5 : el sistema de asistencia a la conducción L2 logra una aplicación de producción en masa

  • En julio de 2019, la versión 1.5 de Xmart OS se envió a los usuarios de G3 a través de OTA. Después de la actualización, el Xpeng G3 tendrá funciones de asistencia a la conducción, como asistencia para cambio automático de carril y asistencia en atascos;

3) Xpilot3.0 : lanzamiento de escena de alta velocidad Función de conducción asistida por navegación automática NGP

  • Segundo trimestre de 2020: el sistema de hardware XPILOT 3.0 se implementa en Xpeng P7;

  • Cuarto trimestre de 2020: Se completa la entrega de las funciones básicas de XPILOT 3.0, es decir, ACC/LCC/ALC y otras funciones se abren a través de OTA;

  • Primer trimestre de 2021: La versión 2.5.0 de Xmart OS se envió a los usuarios de P7 a través de OTA. A través de esta actualización, el Xpeng P7 equipado con el sistema XPILOT 3.0 tiene la función de conducción asistida por navegación automática en autopista NGP;

  • Junio ​​2021: Comenzó la beta pública de Xmart OS versión 2.6.0. A través de esta actualización, el sistema Xpilot3.0 agregó memoria de estacionamiento, luces altas inteligentes y monitoreo del estado del conductor; al mismo tiempo, también soporta navegación automática asistida por NGP. conducción Se han optimizado la función y la función de centrado de carril;

4) Xpilot 3.5: lanzamiento de la función de conducción asistida por navegación automática NGP en escenas urbanas

  • Xpilot 3.5 agrega la función NGP en escenas urbanas y optimiza la función de estacionamiento con memoria de estacionamiento.

  • Está previsto comenzar a entregar Xpeng P5 a los usuarios en el cuarto trimestre de 2021. La función NGP de escena urbana en el sistema Xpilot3.5 comenzará las pruebas internas de usuario a finales de año y estará disponible para los usuarios a través de OTA a principios de 2022. ;

3. Ideal: camino de evolución vertical del sistema de conducción autónoma

eacdd4d2cfddf309221a26efb1abcada.png

Desarrollo del modelo de vehículo ideal y camino de evolución vertical de los sistemas de conducción autónomos.

El progreso de la investigación y el desarrollo de vehículos autónomos de Li Auto está ligeramente por detrás de NIO y Xpeng. Sin embargo, desde la oferta pública inicial de la compañía en los Estados Unidos en julio de 2020 y el ex arquitecto jefe de Visteon, Wang Kai, que se unió a Li Auto en septiembre, el progreso de Li Auto obviamente ha acelerado el ritmo de investigación y desarrollo en el campo de la conducción autónoma;

Li Xiang anunció la hoja de ruta de Li Auto para el desarrollo de la conducción autónoma en una entrevista en 2020:

1) 2021-2022 : Realice la función de conducción asistida por navegación automática;

2) 2023 : lanzamiento de un nuevo modelo Li X01: equipado con un sistema de hardware que admite capacidades de conducción autónoma L4

3) 2024 : Lograr capacidades de conducción autónoma L4 a través de OTA en modelos producidos en masa.

2. Sistema de conducción autónomo: solución de percepción

Tabla adjunta 1: Comparación de soluciones de sistemas de detección de tres fabricantes de automóviles

c5c12b319a25b9ec319e2a4c684c0bf5.png

Nota: √ tiene esta configuración, × no tiene esta configuración

1.   Solución de percepción del sistema de conducción autónoma NIO

c7e2fae8f612cdcefe56486cbb2159b9.png

Comparación de las soluciones de percepción del sistema NIO Pilot y NAD

Nota: 1) √Con esta configuración, N/A No aplicable, — desconocido

2) Algunas de las 11 cámaras de alta definición de 8 megapíxeles de NIO ET7 son suministradas por Lianchuang Electronics; al consultar el sitio web oficial de Lianchuang Electronics, aprendimos que las principales áreas de aplicación de la compañía para las cámaras de vehículos son la vista envolvente y la vista trasera, por lo que Se puede inferir que la cámara de visión envolvente de NIO ET7 probablemente sea suministrada por Lianchuang Electronics.

En comparación con el sistema piloto NIO, la solución de percepción del sistema NAD es más completa:

  • En términos de cámaras , se agregaron cámaras ADS de vista lateral y trasera; sin embargo, la cámara de vista frontal ADS se cambió de 3 cámaras a 2 cámaras;

    Nota: El motivo se especula : el sistema NAD utiliza cámaras de visión frontal ADS * 2 + cámaras de visión frontal laterales (diseño de torre de vigilancia) * 2 + lidar frontal * 1, que puede cubrir completamente el campo de detección de visión cuando el NIOpilot el sistema utiliza una cámara trinocular;

  • Lidar : se agregó un lidar frontal

  • Se agregó el módulo de comunicación C-V2X ;

1 ) Sistema de percepción NIO Pilot

Sensor de percepción : cámara ADS*3+cámara de visión envolvente*4+radar de onda milimétrica*5+radar ultrasónico*12+cámara DMS*1

7748b5ecd33e44e3d79d4eb44455d94c.png

Configuración del sensor NIO Pilot (Fuente de la imagen: sitio web oficial de NIO)

Introducción clave del sensor:

a.     Cámara de visión frontal: cámara trinocular (1,8 millones de píxeles, desarrollada independientemente por Weilai)

  • Cámara de rango medio de 52°: utilizada principalmente para monitorear el estado general de la carretera

  • Cámara de larga distancia con teleobjetivo de 28°: detecta objetivos lejanos y semáforos

  • Cámara de corto alcance con ángulo de visión amplio de 150°: detecta vehículos en el lateral de la carrocería y vehículos que se interponen en la cola a distancias cortas

Las funciones principales de la cámara trinocular se muestran en la siguiente figura:

Funciones implementadas : reconocimiento de señales de tráfico, control automático de luces altas y bajas, advertencia de cambio de carril, mantenimiento automático de carril, asistencia de frenado de emergencia, advertencia de colisión frontal

e20f7f8897f88cc896eca1acf96105e0.png

Realización de la función de cámara trinocular (fuente de la imagen: sitio web oficial de NIO)

b. Radar de ondas milimétricas : 1 radar frontal de larga distancia + 4 radares de esquina

Funciones implementadas : advertencia de cambio de carril, monitoreo de punto ciego del vehículo, advertencia de apertura de puertas laterales, advertencia de vehículo delantero, advertencia de vehículo trasero

8cdc62669fb02b9ca18c0d1526963153.png

Implementación de la función de radar de ondas milimétricas (fuente de la imagen: sitio web oficial de NIO)

2 ) NAD- sistema de percepción

Sistema de superdetección NIO Aquila: sensor de percepción + unidad de posicionamiento de alta precisión (GPS + IMU) + detección colaborativa vehículo-carretera V2X

Sensor de percepción: lidar*1 + cámara ADS*7 + cámara de visión envolvente*4 + radar de onda milimétrica*5+radar ultrasónico*12

f802935dcc75c483fab8d3d63c7a95f7.png

Sistema supersensorial NIO (fuente de la imagen - sitio web oficial de NIO)

Introducción clave del sensor:

a.Parámetros de rendimiento de Lidar (Tudatong-Falcon):

  • Tipo: Lidar híbrido de estado sólido con escaneo de espejo giratorio de doble eje

  • Distancia de detección: 250 m @ 10% de reflectividad

  • Campo de visión (H&V): 120°*30°

  • Resolución angular (H&V): 0,06°*0,06°

  • Longitud de onda del láser: 1550 nm

b Cámara ADS HD:

7 cámaras ADS (8MP): vista frontal*2 (parabrisas delantero) + vista frontal lateral*2 (ambos lados de la parte delantera del techo) + vista trasera lateral*2 (guardabarros) + vista trasera*1 (centro trasero del techo)

58ef3f2bbae05c6ba14887d9f6b5eb41.png

Diagrama de diseño de la cámara ADS

Diseño de torre de vigilancia de cámara lateral orientada hacia adelante: la línea de visión del sensor puede cruzar efectivamente la oclusión y reducir el punto ciego

  • Reducir los puntos ciegos: en escenarios urbanos, la línea de visión del sensor se bloquea fácilmente por los cinturones verdes y los vehículos. En comparación con las cámaras instaladas en los pilares B y los espejos retrovisores, las cámaras frontales laterales montadas en alto desplegadas en el techo pueden reducir los puntos ciegos;

  • Como redundancia visual hacia adelante: La cámara frontal está ubicada en el lado alto del techo y debido a su posición alta tiene un amplio campo de visión, lo que mejora la redundancia de visión hacia adelante. Incluso si la cámara principal frontal no funciona, confiando en las dos cámaras frontales laterales montadas en alto, aún se puede lograr una percepción completa de la visión frontal.

3ae7178a72e80b787c934d64b838dd72.png

Cámara de visión frontal lateral NIO ET7 (fuente de imagen: sitio web oficial de NIO)

2.  Xpeng: solución de percepción para un sistema de conducción autónomo

6564cabdbfa10a15c535d072aae705e4.png

Comparación de diferentes versiones de las soluciones de reconocimiento del sistema Xpilot

Nota: √Con esta configuración, N/A No aplicable, — desconocido

Xpilot 3.0 comparado con Xpilot2.5:

  • Cámara ADS : la cámara de visión frontal se actualiza de una cámara monocular a una cámara trinocular + 1 cámara monocular frontal, agregando un total de 5 cámaras de visión lateral (4 cámaras) y de visión trasera (1 cámara).

  • Se agregó 1 cámara de monitoreo del conductor

  • Radar de onda milimétrica : se agregaron dos radares de ángulo trasero

  • Se agregó una aplicación de mapas de alta precisión.

Xpilot 3.5 comparado con Xpilot3.0:

  • Cámara ADS : una cámara monocular frontal se elimina de la vista frontal

    Nota: El motivo es especulativo : el sistema Xpilot3.5 tiene dos radares láser dispuestos en la parte delantera del vehículo, que pueden reemplazar completamente la cámara monocular anterior y desempeñar un papel en la redundancia de percepción.

  • LiDAR: Se agregaron 2 LiDAR frontales

1 ) Xpilot 2.5 - sistema de percepción

Configuración del sistema de percepción : cámara ADS*1+cámara de visión envolvente*4+radar de onda milimétrica*3+radar ultrasónico*12

0aedfa8f4ab6e6c5a4ba205797a5b1b7.png

Configuración del sensor Xpilot 2.5 (Fuente de la imagen: Internet)

Nota: Círculo morado: radar frontal de ondas milimétricas de rango medio * 1, círculo naranja: radar trasero de ondas milimétricas de rango cercano * 1, círculo verde: cámara de visión envolvente * 4, círculo azul: cámara principal frontal * 1, círculo rojo: radar ultrasónico *12.

Introducción clave del sensor:

a.     Radar frontal de onda milimétrica (Bosch-MRR Evo14)

  • Radar de alcance medio : Tiene dos ángulos de detección: gran angular/estrecho, con distancias de detección de 100 metros y 160 metros respectivamente; está dispuesto en el medio del parachoques delantero y se utiliza principalmente para la detección y seguimiento de objetivos. adelante.

b. Radar trasero de onda milimétrica (Bosch)

  • Radar de corto alcance : rango de detección de 0,36 a 80 m; dispuesto a ambos lados del parachoques trasero, utilizado principalmente para la detección de obstáculos detrás de ambos lados de la carrocería del vehículo.

2 ) Xpilot 3.0 - Sistema de percepción

Configuración del sistema de percepción: sensor de percepción + mapa de alta precisión (Amap) + posicionamiento de alta precisión

Sensor de percepción: cámara ADS*9+cámara de visión envolvente*4+radar de onda milimétrica*5+radar ultrasónico*12+cámara DMS*1

Introducción clave del sensor:

9 cámaras ADS : trinocular frontal (parabrisas delantero) + monocular frontal (parabrisas delantero) + vista frontal lateral *2 (base del espejo retrovisor) + vista trasera lateral *2 (guardabarros) + vista trasera *1 (parte superior de la matrícula)

a.    Cámara trinocular frontal:

  • Cámara de ángulo de visión estrecho de larga distancia (28°) : Se utiliza principalmente para la detección de objetos que se mueven hacia adelante, como frenado automático de emergencia, crucero adaptativo y advertencia de colisión frontal.

    Parámetros de rendimiento : distancia de detección superior a 150 m, resolución -1828*948, píxeles -2 MP, velocidad de fotogramas -15 fps

  • Cámara principal de rango medio (52°): Se utiliza principalmente para reconocimiento de semáforos, reconocimiento de carriles y detección de objetos en movimiento adelante, como detección de semáforos, frenado automático de emergencia, crucero adaptativo, advertencia de colisión frontal, advertencia de cambio de carril.

    Parámetros de rendimiento: píxeles-2MP, velocidad de fotogramas-60 fps

  • Cámara gran angular de corta distancia (100°): utilizada principalmente para prevención de atascos, detección de lluvia y reconocimiento de semáforos.

    Parámetros de rendimiento: píxeles-2MP, velocidad de fotogramas-60 fps

b.    Monocular frontal: cámara con sensor redundante de seguridad (parabrisas delantero): píxeles: 2 MP, velocidad de fotogramas: 69 fps

Función: Como sensor redundante de detección en caso de falla de la detección de la cámara trinocular frontal

3 ) Xpilot 3.5 - sistema de percepción

Configuración del sistema de percepción: sensor de percepción + mapa de alta precisión (Amap) + posicionamiento de alta precisión

Sensor de percepción: lidar*2 + cámara ADS*8+cámara de visión envolvente*4+radar de onda milimétrica*5+radar ultrasónico*12+cámara DMS*1

Introducción a los sensores clave

un . Parámetros de rendimiento de Lidar (DJI Livox-HAP):

  • Tipo: Lidar híbrido de estado sólido con escaneo biprisma

  • Distancia de detección: 150m@10% de reflectividad)

  • Campo de visión (H&V): 120°*30°

  • Resolución angular (H&V): 0,16°*0,2°

  • Longitud de onda del láser: 905 nm

b 8 cámaras ADS: vista frontal*3 (parabrisas delantero, píxeles de 2MP) + vista frontal lateral*2 (base del espejo retrovisor) + vista frontal lateral*2 (guardabarros) + vista trasera*1 (matrícula superior)

c24a9d6fa54d57e3e7bee00c92b9511c.png

Xpeng P5 – Diagrama de diseño de la cámara ADS

3.   Solución ideal de percepción del sistema de conducción autónoma

7f5e6154972ae8a74e0dd6ade544afec.png

Comparación de soluciones de percepción para sistemas de conducción autónoma de automóviles ideales

Nota: √Con esta configuración, N/A No aplicable, — desconocido, (E) Presumiblemente

El sistema de percepción del Ideal One 2021 comparado con el Ideal One 2020:

a. Se han mejorado los parámetros de rendimiento de la cámara frontal : el antiguo Ideal One tiene una cámara monocular frontal de 1,3 millones de píxeles y un ángulo de visión horizontal de 52°; el nuevo Ideal One tiene una cámara monocular de 8 millones de píxeles y un ángulo de visión horizontal Ángulo de visión de 120°.

b. Aumentó el número de radares de ondas milimétricas : se agregaron 4 nuevos radares de esquina

1 ) 2020 Ideal One - Sistema de percepción

Configuración del sensor : cámara ADS*1+cámara de visión envolvente*4+radar de onda milimétrica*1+radar ultrasónico*12

deb7f9e26efd67316dd5ecc8fe781ac3.png

Diagrama esquemático del diseño ideal de un sensor

Nota: En la imagen de arriba, puede ver que hay 3 cámaras en el parabrisas delantero: a. Entre las dos anteriores, solo ② es una cámara ADS, que es una cámara de asistencia a la conducción que se utiliza durante la conducción; b. La otra cámara ① es para la recopilación de datos y la cámara de recopilación se utiliza especialmente para recopilar información de datos, como información de la carretera y escenas de conducción, para facilitar el entrenamiento posterior y la optimización de los algoritmos relacionados; c. La cámara ③ en la parte inferior es la cámara grabadora de conducción ;

Introducción clave del sensor:

Cámara ADS monocular frontal (OmniVision Technology-OV10642) y cámara de visión envolvente (OmniVision Technology-OV10640)

a9c05660c622ebe6b93ac195771b4f3b.png

Comparación de parámetros de rendimiento entre OV10642 y OV10640 

2 ) 2021 Ideal One – Sistema de percepción

Configuración del sensor : cámara ADS*1+cámara de visión envolvente*4+radar de onda mm*5+radar ultrasónico*12

Introducción clave del sensor:

a.  Cámara monocular frontal: píxeles de 8 MP, ángulo de visión horizontal de 120°, distancia de detección de 200 m

B.  Radar de ángulo de onda milimétrica: radar Bosch de quinta generación, ángulo de visión horizontal de 120°, distancia de detección de 110 m

3 ) Ideal X01 - Sistema de percepción

Configuración del sistema de percepción: lidar *1 + cámara ADS *8 (E) + cámara de visión envolvente *4 + radar de onda milimétrica *5 (E) + radar ultrasónico *12 + cámara DMS *1

3. Sistema de conducción autónoma: plataforma informática

Cuadro adjunto 2. Comparación de plataformas informáticas para sistemas de conducción autónoma de tres fabricantes de automóviles nuevos

ca5ee6f4ba9374fffaa22bf0deb07046.png

1. NIO: plataforma informática del sistema de conducción autónoma

59739958884e9b07cc84a79dca239f9e.png

Clasificación de información de la plataforma informática de conducción autónoma NIO

1 ) Plataforma informática de conducción autónoma NIO Pilot

Hardware: chip Mobileye- EyeQ4 (operación de procesamiento de percepción) + chip NXP-S32V (operación de procesamiento de decisiones)

a. Parámetros de rendimiento de EyeQ4 : potencia informática -2,5 TOPS, consumo de energía -3 W, tiempo de respuesta -20 ms, tecnología de proceso -28 nm, tipo de chip - ASIC

B. Parámetros de rendimiento de S32V: potencia informática -9200 DMIPS, procesador -CPU Arm®Cortex®-A53 de 4 núcleos y 64 bits de 1 GHZ, CPU Arm®Cortex®-M4 de 4 núcleos y 32 bits de 133 MHZ

83ee781a207ee8799ccbb5aa02bbc2d8.png

Diagrama de bloques estructural S32V (fuente de imagen-sitio web oficial de NXP)

2 ) Plataforma informática de conducción autónoma NAD

Rendimiento de NIO Adam (que consta de 4 chips Nvidia Orin):

d13a5f98f46b8fdffb401c0f4fa88efb.png

Plataforma de supercomputación NIO-NIO Adam (Fuente: sitio web oficial de NIO)

  • 4* chips dedicados de alto rendimiento: 2 chips de control principal + 1 chip de respaldo redundante + 1 chip dedicado para inteligencia grupal y entrenamiento de personalidad

    —— 2 chips de control principales : realiza la operación de pila completa del algoritmo NAD, incluida la percepción de verificación mutua de múltiples esquemas, posicionamiento de alta precisión de múltiples fuentes, predicción multimodal y toma de decisiones; suficiente potencia informática garantiza que el sistema NAD puede manejarlo con facilidad Escenas de tráfico complejas;

    —— 1 chip de respaldo redundante : si falla algún chip principal, NAD puede garantizar la seguridad

    ——1 chip dedicado para inteligencia grupal y entrenamiento de personalidad : puede acelerar la evolución de NAD y, al mismo tiempo, puede realizar entrenamiento local personalizado de acuerdo con el entorno de conducción de cada usuario, mejorando la experiencia de conducción autónoma de cada usuario;

  • Súper canal de procesamiento de imágenes : interfaz de imágenes de ancho de banda ultra alto, el ISP puede procesar 6,4 mil millones de píxeles por segundo

  • Red troncal de datos ultraalta : la entrada de señal de todos los sensores y sistemas del vehículo se distribuye a cada núcleo de potencia informática en tiempo real sin pérdidas.

2.Xpeng: plataforma informática del sistema de conducción autónoma

8f7f03b62987c353369c833137b13907.png

Clasificación de información de la plataforma informática del sistema Xpilot

1 ) Plataforma informática de conducción autónoma XPilot 2.5

Hardware: uso del módulo EyeQ4 de Mobileye

Chip EyeQ4 : potencia informática: 2,5 TOPS, consumo de energía: 3 W, tiempo de respuesta: 20 ms, tecnología de proceso: tipo de chip de 28 nm: ASIC 

2 ) Plataforma informática de conducción autónoma Xpilot 3.0

Plataforma informática Xpilot3.0: NVIDIA Xavier SoC+ Infineon Aurix MCU

a. NVIDIA Xavier SoC : potencia informática: 30 TOPS, consumo de energía: 30 W, nivel de seguridad: ASIL D, procesador de vídeo: 8 K HDR, arquitectura ARM de 8 núcleos personalizada para CPU, GPU VoltaGPU de 512 núcleos

b. MCU Infineon Aurix: (núcleo de procesador RISC, microcontrolador y DSP integrados en una MCU)

Potencia de cálculo: 1,7 DMIPS/MHz, frecuencia de reloj: núcleo único 300 MHz, proceso: 40 nm, nivel de seguridad: ASIL D

Se puede ver en la pila de software del sistema Xpilot3.0 a continuación:

La parte de desarrollo propio incluye : software de plataforma XPU (arquitectura del sistema Xpilot) y software de capa de aplicación del sistema Xpilot: incluyendo OTA, servicios de diagnóstico, virtualización, servicios de cámaras, servicios CAN, aplicaciones de conducción autónoma (percepción, posicionamiento, predicción, planificación de rutas, etc.) .) espera

f573a883f85696ac10ef778fd97b5b4b.png

Pila de software del sistema Xpilot 3.0 (fuente de la imagen: Xpeng)

3. Ideal: plataforma informática para el sistema de conducción autónoma

028ec807ce57c3a6f014eace3a4dda9c.png

Combinación de información de plataforma informática de conducción autónoma ideal

1 ) La plataforma informática de conducción autónoma equipada con el Lixiang One 2020

  • Módulo de procesamiento de percepción de imágenes : utilizando el chip Mobileye EyeQ4

  •  Módulo de decisión de control: desarrollado por Yihang Intelligent

2 ) La plataforma informática de conducción autónoma equipada con el Lili One 2021

Chip de procesamiento : Horizon Journey 3*2

c0f2b20cd614f03c19aae8e2d6187609.png

Clasificación de la información de parámetros básicos de Journey 3

3 ) La plataforma informática de conducción autónoma equipada con Lili X01

hardware:

  • Controlador de dominio de conducción autónoma: Desay SV

  • Chip maestro:Chip controlador SP: NVIDIA Orin-x

Sistema operativo: Li X01 estará equipado con su sistema operativo en tiempo real de desarrollo propio Li OS

Li OS está profundamente personalizado y desarrollado en base al kernel de Linux. Las partes de desarrollo personalizadas incluyen: a. Partes centrales como el sistema de archivos del kernel, el sistema IO y el arranque; b. La parte de middleware que se comunica con otras capas de la aplicación; la aplicación selección de partes de capas y estrategias Desarrollo cooperativo de proveedores;

4. Sistema de conducción automática: realización de funciones

Apéndice 3: Comparación de modelos de pago para sistemas de conducción inteligentes de tres nuevos fabricantes de automóviles

d18b85663d8e84fe91d492754a768e54.png

Apéndice 4: Comparación de las funciones del sistema de conducción autónoma de tres nuevos fabricantes de automóviles

23c730c1066b2548bb9051510cbdf6fd.png

Nota: √ tiene esta configuración, × no tiene esta configuración

c879e9109fc0687536628ce79cb93af1.png

1. Weilai: realización de funciones del sistema de conducción automática

954e900acd5c9f5b54ef0a3b872a4a2e.png

Funciones que pueden realizar NIO Pilot y NAD

1) Las funciones básicas del sistema NIO Pilot son gratuitas y se adopta un modelo de pago único para paquetes seleccionados y paquetes totalmente equipados;

2) NAD adopta un modelo de pago de suscripción mensual: además de algunas funciones básicas, si desea tener las funciones completas de NAD, debe adoptar un modelo de suscripción al servicio de "activación mensual y pago mensual", es decir, ADaaS (AD como Servicio).

3) El sistema NAD agregará algunas funciones de conducción automática de alta gama integradas y basadas en escenarios basadas en el sistema NIO Pilot: estacionamiento automático en estaciones de cambio de batería, conducción automática de estacionamiento y baja velocidad NAD y otras funciones.

2. Xpeng: implementación de funciones del sistema de conducción autónoma

1930293d2b24331a4675549e4d6e8c1f.png

Funciones implementadas por el sistema Xpilot

Nota: Las funciones con "*" son dispositivos opcionales y se pueden obtener mediante actualización OTA después del pago de la suscripción posterior.

1 ) Xpilot 3.0 comparado con Xpilot 2.5:

Xpilot 3.0 tiene sólidas capacidades de actualización de software, y las capacidades de actualización OTA posteriores pueden agregar: luces altas inteligentes, estacionamiento con memoria de estacionamiento, conducción asistida por navegación automática NGP (carretera), pantalla de simulación del entorno de conducción automática SR

2 ) Xpilot 3.5 comparado con Xpilot 3.0:

  • Estabilidad mejorada: puede resolver mejor escenas difíciles como la noche, la luz de fondo, la poca luz y la luz y la oscuridad del túnel;

  • Nueva escena urbana NGP : función de conducción asistida por navegación automática

  • Mejore la experiencia de la función de estacionamiento con memoria de estacionamiento : en el estacionamiento, es mejor lidiar con escenas complejas como entrar y salir de vehículos, vehículos que se aproximan, desplazamiento de peatones, curvas continuas en ángulo recto, etc.

3. Ideal: realización de funciones del sistema de conducción autónoma

d3daebc352a52da9139b2ad067b28e73.png

Ideal: comparación de funciones implementadas por sistemas de conducción autónomos

1 ) Ideal One 2020 : implementa principalmente funciones de asistencia a la conducción de nivel L2 y carece de funciones de asistencia a la conducción de alto nivel L2+;

a. Dado que el vehículo no está equipado con sensores de larga distancia que puedan monitorear la parte trasera del vehículo, como un radar de ondas milimétricas o cámaras ADS de visión trasera/lateral, la capacidad de protección trasera del vehículo es débil cuando se conduce rápidamente. es difícil lograr una mejor detección de la parte trasera del vehículo Funciones de advertencia de colisión, asistencia para incorporarse y cambio automático de carril;

B. La capacidad de detección del sensor de avance tiene ciertas limitaciones.

En 2020, Ideal One tuvo una serie de accidentes que involucraron colisiones traseras con camiones grandes, las principales causas de estos accidentes fueron las dos situaciones siguientes: Primero: Ideal One activó la función de conducción asistida en ese momento, pero cuando el vehículo en el frente invadió 1/3-1/2 del carril, ADAS aún no ha reconocido el vehículo que va delante; en segundo lugar: el sensor de percepción de conducción asistida del Ideal One tiene poca capacidad para identificar el vehículo que va delante en el lado opuesto y es inútil en noches oscuras con luz débil.

Por lo tanto, además de los factores del algoritmo del software, la limitación de la capacidad de detección delantera del sensor también es otra razón importante. En primer lugar, la cámara frontal del Ideal One 2020 es monocular, con un campo de visión de 52°, y hay no hay sensores en ambos lados del vehículo. El radar de ángulo está diseñado para tener mala percepción en condiciones de poca luz, por lo que es tarde para identificar los vehículos que se insertan rápidamente desde el costado.

Por tanto, es natural actualizar la configuración de hardware relacionada con el sistema de conducción autónoma del Ideal One 2021.

2 ) Ideal 2021 : La cámara frontal adopta una cámara de alta definición de 8 megapíxeles con un ángulo de visión horizontal de 120° y agrega un radar de 4 ángulos, lo que mejora la capacidad de percibir objetivos de media y larga distancia en la parte trasera y en ambos lados del frente, en comparación con el anterior, el ideal tiene funciones adicionales como función de reconocimiento de semáforo, recordatorio de cruce de vehículos delanteros, recordatorio de cruce de vehículos traseros, recordatorio de apertura de puertas y recordatorio anticolisión, etc.;

Conclusión

1. A juzgar por los planes de investigación y desarrollo de conducción autónoma y los diseños de autoinvestigación de los tres nuevos fabricantes de automóviles, sus direcciones de diseño estratégico son relativamente consistentes y todos quieren construir capacidades de conducción autónoma de desarrollo propio y de pila completa, porque el hardware del futuro los modelos convergerán, la capacidad de software de la empresa o la capacidad de integración de software y hardware será su barrera principal;

fc6fd0d09817e9c61d7b0340a37dd5a2.png

2. En términos de soluciones de detección para la futura conducción autónoma de alta gama, las tres nuevas fuerzas de fabricación de automóviles adoptarán la ruta de "detección fuerte" de detección redundante de múltiples sensores, incluido lidar + radar de onda milimétrica + cámara; sin embargo, la evolución Además de la combinación de software y hardware, los datos son la clave. Sólo acumulando continuamente datos de usuarios locales en las complejas condiciones de las carreteras de China y optimizando continuamente los algoritmos de software podremos crear una experiencia de conducción autónoma diferenciada; las empresas locales chinas tienen una mejor comprensión de las escenas de carreteras con características chinas. Debido a los hábitos de conducción de los usuarios chinos, existe la oportunidad de iterar sobre la tecnología de conducción autónoma con una mejor experiencia en escenarios chinos; por ejemplo, algunas funciones especiales adecuadas para las carreteras chinas: tráfico advertencia de atasco, recordatorio de adelantamiento nocturno, prevención de camiones grandes, etc.;

3. En términos de plataformas informáticas de conducción autónoma, NIO, Xpeng e Ideal eligieron la solución relativamente cerrada Mobileye en los primeros días, lo que les dificultaba obtener y utilizar eficazmente los datos visuales subyacentes, por lo que luego recurrieron a más Soluciones selectivas y abiertas. Coopere con NVIDIA; en el futuro, las empresas poderosas formarán un modelo de investigación y desarrollo de autoinvestigación de chips AI + autoinvestigación de controladores de dominio de conducción autónoma (desarrollo cooperativo). Este modelo, combinado con auto-investigación Los algoritmos de software desarrollados pueden aprovechar al máximo las capacidades de rendimiento óptimo de la plataforma informática de conducción autónoma;

4. En términos de implementación funcional de modelos producidos en masa, se prestará más atención a la implementación de escenarios de usuario específicos; a partir de escenarios de usuario, implementaremos gradualmente la conducción autónoma punto a punto en tres escenarios principales: estacionamiento, autopistas. y áreas urbanas;

5. Actualmente, la tecnología de conducción autónoma se encuentra en una etapa de desarrollo iterativo continuo. La OTA puede realizar iteraciones rápidas del software del vehículo y puede continuar agregando nuevas funciones u optimizando las funciones existentes a los vehículos que se han entregado a los usuarios; sin embargo, la OTA para nuevos funciones también es más fuerte que el hardware. En relación con esto, si el hardware no lo admite, el software por sí solo no puede lograrlo. Sin embargo, la mayor parte del hardware instalado en los modelos actuales producidos en masa no se puede completar en un solo paso. Los OEM solo pueden hacer lo mejor que pueden en función de sus respectivas fortalezas: "Ser compatible con el futuro e intentar ser compatible con el futuro".

Observación:

1) Para comunicarse con el autor, agregue el ID corporativo de WeChat del autor (escanee el código QR a continuación); antes de agregar WeChat, asegúrese de indicar su empresa, puesto y nombre real; de lo contrario, la verificación no pasará. Gracias por tu entendimiento.

9141766121c79dca124751dd3fc79678.png

2) Si está interesado en contribuir a "Nueve capítulos de conducción inteligente" (en dos direcciones: "Resumen de la experiencia de transformación" y "Acumulación de conocimientos"), escanee el siguiente código QR para agregar el WeChat corporativo de Sun Li. Asegúrese de anotar su nombre y puesto reales y otra información al agregar WeChat, gracias.

ea08b216484456ac4f38f9053804be17.png

Lectura recomendada (hipervínculo):

 El tres por ciento de nuestro destino personal depende del trabajo duro y el siete por ciento depende de los dividendos industriales——El discurso inaugural de "Nine Chapters Zhijia" 

Un artículo para comprender la estructura del mercado de BBW: un inventario de 10 productos de 7 empresas

Descubriendo el “misterio” del mapa de Tesla

Manténgase alejado de las disputas sobre parámetros e interprete profundamente el camino de las regulaciones del automóvil Livox LiDAR

El estado actual y el futuro del mercado de sistemas operativos de conducción autónoma

 La ideología rectora para la implementación de la conducción autónoma de "nivel L3": ayudar a las personas a altas velocidades y reemplazar a las personas a bajas velocidades

 Sobre lidar, 12 preguntas que interesan a inversores y empresas de automóviles

 Diez grandes tendencias en la era de la fabricación de automóviles 2.0

Referencias:

1. Análisis de NAD, el nuevo sistema de conducción autónoma de NIO

https://mp.weixin.qq.com/s/NKc0cP6Fc_xRlp-ui4lc7A

2. NIOPilot Pilot Assist: ¿Cómo definir el segundo del mundo?

https://www.bilibili.com/read/cv7878209/

3. Más estable que Tesla, primero en experimentar la conducción asistida por piloto NOP de NIO

https://www.sohu.com/a/423524857_118021

4. NIO anunció el progreso de la conducción autónoma: abandonar la ruta puramente visual y realizar una fusión multisensor

https://www.sohu.com/a/301101089_256868

5. El camino para actualizar el piloto de conducción asistida automática de NIO (con explicación detallada de las funciones súper completas)

https://mp.weixin.qq.com/s/QiS0e6Yye54IIYRtvi_C-A

6. Desde el PPT de 2019, explore la conducción autónoma de Xiaopeng P7 (XPilot3.0)

https://zhuanlan.zhihu.com/p/148570354

7. De G3 a P7, 2.5 a 3.0, la historia de la evolución del sistema avanzado de asistencia a la conducción Xpeng XPILOT

http://www.evask360.com/article-996.html

8. Vicepresidente de conducción autónoma de Xpeng: conducción autónoma, evolución de la función piloto de la arquitectura del sistema y análisis de casos de P7

https://www.sohu.com/a/355060121_99957909

9. La asistencia de crucero inteligente ICA abre la conducción inteligente Xiaopeng G3 y entra en la era L2

https://www.sohu.com/a/320206563_117727

10. De G3 a P7, 2.5 a 3.0 Xpeng XPILOT Historial de evolución del sistema avanzado de asistencia a la conducción

https://mp.weixin.qq.com/s/tOZouR8t_-Ixlg4CN9y3TA

11.Una descripción general de los proveedores de Xpeng P7

https://mp.weixin.qq.com/s/jG7sz8GGgtaXnzdE4h6Lyw

12. Información básica de la sesión informativa de actualización de Xpeng P7 OTA

https://zhuanlan.zhihu.com/p/347364948

13. La tasa de éxito es del 99,99%. Xiaopeng reveló los datos clave de OTA y la nueva función se lanzará pronto, lo cual es sorprendente.

https://mp.weixin.qq.com/s/SW3qXhVWJnNG0kJqhl0b9w

14. De Nokia a los coches nuevos, un arquitecto jefe decide apostar por los "ideales"

https://zhuanlan.zhihu.com/p/254823116

15. Diálogo con el CTO ideal Wang Kai: Descifrando el boleto de admisión para las empresas de conducción autónoma de 2025

https://zhuanlan.zhihu.com/p/256204278

16. La solución integral de visión de vehículos de OmniVision Group equipa al ONE automóvil ideal con el "ojo inteligente" para una conducción inteligente

https://mp.weixin.qq.com/s/TRNG0UOhDJywQbUZo9rKCA

17. ¿Qué opinas del sistema de conducción autónoma Ideal ONE?

https://www.sohu.com/a/337831069_607980

18. Li Xiang anunció por primera vez la hoja de ruta de conducción autónoma de Li Auto

https://mp.weixin.qq.com/s/wWQhZIdchK1i_X4pZkjSZQ

19. La estrategia de "producto popular" de Li Xiang: explorar la esencia de las necesidades del usuario, no centrarse en el usuario

https://mp.weixin.qq.com/s/UMEBONbjyGKGufk3F2R04g

20. Se sospecha que la configuración ideal del X01 con una lujosa configuración de hardware está expuesta

https://chejiahao.autohome.com.cn/info/8765333

21. ¡Ideal ONE volvió a chocar por detrás con un camión grande! La policía ha emitido un aviso afirmando que Ideal ONE es el único responsable

https://mp.weixin.qq.com/s/vMpB16HF_UyuvTbd_6ViUw

Supongo que te gusta

Origin blog.csdn.net/jiuzhang_0402/article/details/121358633
Recomendado
Clasificación