[Segmentación 3D] SAGA: Segmente cualquier gaussiano 3D

Índice de contenidos de los artículos de la serie.

代码:https://jumpat.github.io/SAGA.
论文:https://jumpat.github.io/SAGA/SAGA_paper.pdf
来源:上海交大和华为研究院



Resumen

  La tecnología de segmentación 3D interactiva es de gran importancia en la comprensión y manipulación de escenas 3D y es una tarea que merece atención. Sin embargo, los métodos existentes enfrentan desafíos para lograr una segmentación multigranular detallada o enfrentan una sobrecarga computacional sustancial, lo que inhibe la interacción en tiempo real. En este artículo, presentamos Segmented Arbitrary 3D Gassin (SAGA), un nuevo método de segmentación interactiva 3D que combina a la perfección modelos de segmentación 2D con 3D Gaussian Splatting (3DGS). SAGA incorpora eficazmente los resultados de segmentación 2D de granularidad múltiple generados por el modelo de segmentación en características de puntos gaussianos 3D mediante un entrenamiento de contraste bien diseñado . La evaluación experimental demuestra el desempeño competitivo. Además, SAGA puede completar la segmentación 3D en milisegundos, también implementa segmentación de granularidad múltiple y se adapta a varias señales, incluidos puntos, graffiti y máscaras 2D.


I. Introducción

  La segmentación interactiva tridimensional ha atraído una gran atención por parte de los investigadores debido a sus posibles aplicaciones en campos como la manipulación de escenas, el etiquetado automático y la realidad virtual. Los métodos anteriores [13, 25, 46, 47 Descomposición de nerf, campos de fusión de características neuronales, etc.] promueven principalmente características visuales bidimensionales en un espacio tridimensional a través de campos de características de entrenamiento para simular modelos visuales autosupervisados ​​[4, 39] Extraído Funciones 2D de múltiples vistas. Luego se utiliza la similitud de características tridimensionales para medir si dos puntos pertenecen al mismo objeto. Este enfoque es rápido debido a su simple proceso de segmentación, pero a costa de una granularidad de segmentación gruesa debido a la falta de mecanismos para analizar la información incorporada en las funciones (por ejemplo, decodificadores de segmentación). Por el contrario, otro paradigma [5: Segmentar cualquier cosa en 3D con nerfs] mejora el modelo básico de segmentación 2D a un modelo 3D al proyectar directamente resultados de segmentación 2D detallados de múltiples vistas en una cuadrícula de máscara 3D. Aunque este método puede producir resultados de segmentación precisos, su gran sobrecarga de tiempo limita la interactividad debido a la necesidad de ejecutar el modelo subyacente y renderizar varias veces.

  La discusión anterior revela el dilema de los paradigmas existentes para lograr eficiencia y precisión, y señala dos factores que limitan el desempeño de los paradigmas existentes. En primer lugar, los campos de radiación implícitos empleados por los métodos anteriores [5, 13] dificultan la segmentación efectiva : se debe atravesar el espacio tridimensional para recuperar un objeto tridimensional. En segundo lugar, al utilizar un decodificador de segmentación bidimensional, la calidad de la segmentación es alta pero la eficiencia es baja.

  El Splatting gaussiano tridimensional (3DGS) es capaz de renderizar en tiempo real y de alta calidad : utiliza un conjunto de distribuciones gaussianas de color tridimensionales para representar una escena tridimensional. El promedio de estas distribuciones gaussianas representa su posición en el espacio tridimensional, por lo que 3DGS puede verse como una nube de puntos que ayuda a evitar el procesamiento extenso de espacios tridimensionales enormes, a menudo vacíos, y proporciona ricos antecedentes tridimensionales explícitos. Con esta estructura similar a una nube de puntos, 3DGS no sólo logra una representación eficiente sino que también se convierte en un candidato ideal para tareas de segmentación.

  Sobre la base de 3DGS, propusimos Segment Any 3D GAussians (SAGA) : extraer las capacidades de segmentación detallada del modelo de segmentación 2D (es decir, SAM) en un modelo gaussiano 3D, centrándose en actualizar las características visuales 2D a 3D y lograr Fine -Segmentación 3D granulada . Además, evita múltiples inferencias del modelo de segmentación 2D. La destilación se implementa utilizando SAM para extraer máscaras automáticamente y entrenar características tridimensionales de distribución gaussiana. Durante la inferencia, se utiliza una sugerencia de entrada para generar un conjunto de consultas, que luego se utilizan para recuperar el gaussiano deseado mediante una coincidencia de características eficiente . El método permite una segmentación 3D detallada en milisegundos y admite una variedad de señales, incluidos puntos, garabatos y máscaras.


2. Trabajo relacionado

1. Segmentación 2D basada en sugerencias

  Inspirándose en las tareas de PNL y los avances recientes en visión por computadora, SAM puede devolver máscaras de segmentación dadas señales de entrada para objetivos de segmentación en una imagen específica. Un modelo similar a SAM es SEEM [55], que también muestra impresionantes capacidades de segmentación de vocabulario abierto. Antes de ellos, la tarea más estrechamente relacionada con la segmentación 2D con indicaciones era la segmentación de imágenes interactivas, que ha sido explorada en muchos estudios.

2. Actualice el modelo básico visual 2D a 3D.

  Recientemente, los modelos fundamentales de visión 2D han experimentado un fuerte crecimiento. Por el contrario, los modelos básicos de visión 3D no han experimentado un desarrollo similar, principalmente debido a la falta de datos. Obtener y anotar datos 3D es significativamente más desafiante que otros datos 2D . Para resolver este problema, los investigadores intentaron actualizar el modelo base 2D a 3D [8, 16, 20, 22, 28, 38, 51, 53]. Un intento notable es LERF [22], que entrena un modelo de lenguaje visual en un campo de características (es decir, CLIP [39]) y un campo radial. Este paradigma es útil para localizar objetos en un campo de radiación basándose en señales lingüísticas , pero tiene un rendimiento deficiente en la segmentación 3D precisa, especialmente cuando se enfrenta a múltiples objetos semánticamente similares. Los métodos restantes se centran principalmente en las nubes de puntos. Al utilizar la pose de la cámara para asociar la nube de puntos 3D con la imagen multivista 2D, las características extraídas del modelo base 2D se pueden proyectar en la nube de puntos 3D. Esta integración es similar a LERF, pero la adquisición de datos es más costosa que los métodos basados ​​en campos de radiación.

3. Segmentación tridimensional en campos de radiación.

  Inspirados por el éxito de NeRF, muchos estudios han explorado la segmentación tridimensional del mismo. Zhi y otros [54] propusieron SemanticNeRF, demostrando el potencial de NeRF en la propagación y el refinamiento semántico. NVOS [40] introduce un método interactivo para seleccionar objetos 3D de NeRF mediante el entrenamiento de una percepción ligera de múltiples capas utilizando características 3D diseñadas a medida (MLP). Al utilizar modelos 2D autosupervisados, como N3F [47], DFF [25], LERF [22] e ISRF [13], se generan mapas de características 2D entrenando campos de características adicionales que pueden imitar diferentes mapas de características 2D. Actualización 2D características visuales a 3D. NeRF-SOS [9] utiliza la pérdida por destilación de correspondencia [17] para refinar las similitudes de características 2D en características 3D. Entre estos métodos visuales 2D basados ​​en características, la segmentación 3D se puede lograr comparando características 3D integradas en el dominio de características, lo que parece ser efectivo. Sin embargo, la calidad de la segmentación de tales métodos es limitada porque la información incorporada en las características visuales de alta dimensión no se puede explotar por completo cuando se basa únicamente en la distancia euclidiana o la distancia del coseno. Existen otros métodos de segmentación de instancias y segmentación semántica [2, 12, 19, 30, 35, 44, 48, 52] combinados con campos de radiación.

  Los dos métodos más estrechamente relacionados con nuestro SAGA son ISRF [13] y SA3D [5]. El primero sigue el paradigma de entrenar un campo de características para modelar características visuales 2D de múltiples vistas. Por lo tanto, es difícil distinguir diferentes objetos (especialmente partes de objetos) con semántica similar . Este último consulta iterativamente a SAM para obtener los resultados de la segmentación bidimensional y los proyecta en la cuadrícula de máscara para la segmentación tridimensional. Tiene una buena calidad de segmentación, pero el proceso de segmentación es complejo, lo que genera un gran consumo de tiempo e inhibe la interacción con los usuarios.

3. Metodología

1. Salpicadura gaussiana 3D (3DGS)

  Como último desarrollo de campos de radiación, 3DGS [21] utiliza una distribución gaussiana tridimensional entrenable para representar escenas tridimensionales y propone un algoritmo de entrenamiento y representación de rasterización diferenciable eficaz. Dado un conjunto de datos de entrenamiento I de imágenes 2D de múltiples vistas con poses de cámara, 3DGS aprende un conjunto de gaussianos de color 3D G = {g 1 , g 2 ,…, g N }, donde N representa el número de gaussianos 3D en la escena. La media de cada distribución gaussiana representa su posición en el espacio tridimensional y la covarianza representa la escala. Por tanto, 3DGS puede considerarse como una nube de puntos. Dada una pose de cámara específica, 3DGS proyecta una gaussiana tridimensional en dos dimensiones y luego calcula el color C de un píxel combinando un conjunto de gaussianas ordenadas N que se superponen al píxel:
Insertar descripción de la imagen aquí
donde ci es el color de cada distribución gaussiana, α se obtiene calculando una distribución gaussiana bidimensional con covarianza Σ multiplicada por una opacidad aprendida por gaussiana. A partir de la ecuación (1), podemos aprender la linealidad del proceso de rasterización: el color representado por un píxel es una suma ponderada de las gaussianas involucradas . Esta función garantiza la alineación de las funciones 3D con las propiedades de representación 2D.

  SAM toma una imagen I y un conjunto de señales P como entrada y genera la correspondiente máscara de segmentación bidimensional M, a saber:

Insertar descripción de la imagen aquí

2. Marco general

  Como se muestra en la Figura 2, dado un modelo 3DGS G previamente entrenado y su conjunto de entrenamiento, primero usamos el codificador de SAM para extraer las características bidimensionales de cada imagen I∈R H×W : F I SAM ∈R Csam× H × W y un conjunto de máscaras de granularidad múltiple M I SAM ; luego, de acuerdo con la máscara extraída, las características de baja dimensión f g ∈ R C de cada G gaussiano se entrenan para agregar información de segmentación de granularidad múltiple consistente en vista cruzada (( C representa la dimensión de la característica, el tamaño por defecto es 32). Para mejorar aún más la compacidad de las características, obtenemos correspondencias puntuales de las máscaras extraídas y las extraemos como características (es decir, pérdida de correlación).

Insertar descripción de la imagen aquí

  En la etapa de inferencia, para la vista específica de la pose de la cámara v 2 , se genera un conjunto de consultas Q de acuerdo con el mensaje de entrada p, y luego estas consultas se utilizan para realizar una coincidencia efectiva de características con las características aprendidas para recuperar la imagen tridimensional. Distribución gaussiana del objetivo correspondiente . Además, introducimos una operación de posprocesamiento eficiente para refinar la distribución gaussiana 3D recuperada explotando el fuerte 3D previo proporcionado por la estructura similar a una nube de puntos de 3DGS .

3. Entrenamiento de funciones gaussianas

  Imagen de entrenamiento I con pose v, renderice el mapa de características F correspondiente utilizando el modelo 3DGS g previamente entrenado:

Insertar descripción de la imagen aquí
Entre ellos, N es un conjunto de distribuciones gaussianas ordenadas superpuestas. Durante la fase de entrenamiento, a excepción de las características recién adjuntas, todas las demás propiedades del G gaussiano tridimensional (como la media, la covarianza y la opacidad) se congelan.

3.1 Pérdida de guía SAM

  La máscara 2D MI extraída automáticamente por SAM es compleja y confusa (es decir, un punto en el espacio 3D se puede segmentar en diferentes objetos/partes en diferentes vistas). Esta señal de supervisión ambigua plantea un gran desafío para entrenar funciones 3D desde cero. Para resolver este problema , utilizamos funciones generadas por SAM como guía. Como se muestra en la Figura 2: utilice MLP φ para proyectar las funciones SAM en el mismo espacio de baja dimensión que las funciones tridimensionales :

Insertar descripción de la imagen aquí
Luego, para cada máscara M extraída de M I SAM , después de una operación de agrupación promedio, se obtiene una consulta correspondiente T M ∈ R C :

Insertar descripción de la imagen aquí
Entre ellos, 'hueco 1' es la función indicadora. Luego use TM para segmentar el mapa de características renderizado F I r por softmaxed :

Insertar descripción de la imagen aquí
Entre ellos, σ representa la función sigmoidea a nivel de elemento. La pérdida de guía SAM se define como: la entropía cruzada binaria entre el resultado de la segmentación P M y la máscara extraída SAM correspondiente M:
Insertar descripción de la imagen aquí

3.2 Pérdida de correspondencia

  En la práctica, encontramos que las características aprendidas de la pérdida guiada por SAM no son lo suficientemente compactas, lo que reduce la calidad de la segmentación basada en diferentes señales (consulte el estudio de ablación en la Sección 4). Inspirándonos en métodos anteriores de destilación de correspondencia contrastiva [9, 17], introducimos la pérdida de correspondencia para resolver este problema.

  Como se mencionó anteriormente, para cada imagen I de altura H y ancho W en el conjunto de entrenamiento I, se usa SAM para extraer un conjunto de máscaras MI . Considerando dos píxeles p1, p2 en I, pueden pertenecer a muchas máscaras en M I. Sean M I p1 y M I p2 respectivamente las máscaras a las que pertenecen los puntos de píxel p 1 y p 2 . Si su IoU es más grande, entonces las características de los píxeles deberían ser similares. Por lo tanto, el coeficiente de correlación K I (p 1 , p 2 ) de la máscara :

Insertar descripción de la imagen aquí
La correlación de características S I (p 1 , p 2 ) entre los píxeles p 1 , p 2 se define como la similitud coseno entre sus características renderizadas:

Insertar descripción de la imagen aquí

pérdida de correspondencia (si dos píxeles nunca pertenecen a la misma parte, reduzca la similitud de características estableciendo el valor 0 en K I en −1):

Insertar descripción de la imagen aquí

4. Inferencia

  Aunque el entrenamiento se realiza en mapas de características renderizadas , la linealidad de la operación de rasterización (Ecuación 3) garantiza que las características en el espacio tridimensional estén alineadas con las características renderizadas en el plano de la imagen . Por lo tanto, las funciones de renderizado 2D se pueden utilizar para lograr una segmentación gaussiana tridimensional. Esta característica brinda compatibilidad SAGA con varios mensajes. Además, también presentamos un algoritmo de posprocesamiento previo 3D eficaz basado en 3DGS.

4.1 Indicaciones basadas en puntos

  Para el mapa de características renderizado F v r de una vista específica v , las características correspondientes se recuperan directamente para generar consultas para puntos de muestra positivos y negativos. Sean Q v p y Q v n representan N p consultas positivas y consultas negativas respectivamente. Para el g gaussiano tridimensional, su puntuación positiva S g p se define como la máxima similitud de coseno entre su característica y la consulta positiva, es decir, max{ < f g , Q p > |Q p ∈Q v p } . Asimismo, la fracción negativa S g n se define como max{ < f g , Q n > |Q n ∈Q v n } . Sólo cuando S g p > S g n el gaussiano tridimensional pertenece al objetivo G t . Para filtrar aún más la ruidosa distribución gaussiana, el umbral adaptativo τ se establece en una fracción positiva, es decir, g∈G t solo si S g p > τ . τ se establece en el promedio de las puntuaciones positivas más grandes. Tenga en cuenta que este filtrado puede dar como resultado muchas muestras FN (muestras positivas no reconocidas), pero esto se puede resolver mediante el posprocesamiento en la Sección 4.5.

4.2 Consejos basados ​​en Mask and Scribble

  Simplemente tratar las sugerencias densas como puntos múltiples resultará en una enorme sobrecarga de memoria de la GPU. Por lo tanto, utilizamos el algoritmo K-means para extraer consultas positivas y negativas de sugerencias densas: Q v p y Q v n . Como regla general, el número de grupos para Kmeans es 5 (se puede ajustar según la complejidad del objeto de destino).

4.3 Avisos basados ​​en SAM

  Las sugerencias anteriores se obtendrán del mapa de características renderizado. Debido a la pérdida de guía de SAM, podemos usar directamente características de SAM de baja dimensión F' v para generar consultas: primero ingrese el mensaje en SAM para generar resultados de segmentación 2D precisos M v ref . Usando esta máscara 2D, primero obtenemos una máscara Q de consulta con agrupación promedio de máscara , y usamos esta consulta para segmentar el mapa de características renderizado 2D F v r para obtener una máscara de segmentación 2D temporal M v temp , y luego la comparamos con M v ref . Si la intersección de los dos ocupa la mayor parte de M v ref (90% de forma predeterminada), se acepta la máscara Q v como consulta. De lo contrario, utilizamos el algoritmo K-means para extraer otro conjunto de consultas Q v kmeans de las características SAM de baja dimensión F′ v dentro de la máscara . Se adopta esta estrategia porque el objetivo de segmentación puede contener muchos componentes que no se pueden capturar simplemente aplicando la agrupación de promedios enmascarados.

  Después de obtener el conjunto de consultas Q v SAM = {Q v mask } o Q v SAM = Q v kmeans , el proceso posterior es el mismo que el del mensaje anterior. Utilizamos el producto escalar en lugar de la similitud del coseno como medida de segmentación para acomodar la pérdida guiada por SAM. Para un g gaussiano tridimensional, su puntuación positiva S g p es el producto escalar máximo calculado mediante la siguiente consulta:

Insertar descripción de la imagen aquí

Si la puntuación positiva es mayor que otro umbral adaptativo τ SAM , entonces el g gaussiano tridimensional pertenece al objetivo de segmentación G t , que es la suma de la media y la desviación estándar de todas las puntuaciones.

5. Postprocesamiento basado en previo tridimensional.

  Hay dos problemas principales en la segmentación inicial G t de gaussianos 3D : (i) el problema de los gaussianos ruidosos redundantes, (ii) la omisión de objetivos . Para resolver este problema, utilizamos técnicas tradicionales de segmentación de nubes de puntos, incluido el filtrado estadístico y el crecimiento de regiones. Para la segmentación basada en señales puntuales y de graffiti, se utiliza filtrado estadístico para filtrar la distribución gaussiana del ruido. Para indicaciones de máscara y indicaciones basadas en SAM, la máscara 2D se proyecta sobre G t para obtener un conjunto de funciones gaussianas validadas, que se proyectan sobre G para excluir funciones gaussianas innecesarias. La función gaussiana efectiva resultante se puede utilizar como semilla para el algoritmo de crecimiento de regiones. Finalmente, se adopta un método de crecimiento de región basado en consulta de esfera para recuperar todas las funciones gaussianas requeridas para el objetivo del modelo G original.

4.1 Filtrado estadístico Filtrado estadístico

  La distancia entre dos distribuciones gaussianas puede indicar si pertenecen al mismo objetivo. El filtrado estadístico utiliza primero el algoritmo |-vecino más cercano (KNN) para calcular el G t \sqrt{Gt} más cercano de cada distribución gaussiana en el resultado de la segmentación Gtgt La distancia media de una distribución gaussiana. Posteriormente, calculamos la media (μ) y la desviación estándar (σ) de estas distancias promedio para todos los gaussianos en G t . Luego eliminamos las distribuciones gaussianas cuya distancia media excede µ+σ y obtenemos G t' .

4.2 Filtrado basado en el crecimiento regional

  La máscara 2D de la señal de máscara o la señal basada en sam se puede utilizar como paso previo para localizar con precisión el objetivo : primero, la máscara se proyecta sobre el resultado gaussiano aproximado Gt , lo que da como resultado un subconjunto gaussiano, denominado Gc . Posteriormente, para cada g gaussiano dentro de G c , se calcula la distancia euclidiana d g del vecino más cercano en el subconjunto :

Insertar descripción de la imagen aquí
En la fórmula, D() representa la distancia euclidiana. Luego, las gaussianas adyacentes (distancias menores que la distancia máxima del vecino más cercano en el conjunto G c ) se agregan iterativamente al resultado gaussiano aproximado G t . Esta distancia se formaliza como: Tenga en cuenta que, aunque las señales puntuales y las señales de garabatos también pueden localizar aproximadamente el objetivo, aumentar el área en función de ellas lleva mucho tiempo. Por eso, sólo lo usamos cuando hay mascarilla.máx{d G cg |g∈Gc}

4.3 Crecimiento basado en Ball Query

  La salida de segmentación filtrada G′ t puede carecer de todos los gaussianos del objetivo. Para resolver este problema, utilizamos el algoritmo de consulta de bola para recuperar todos los gaussianos requeridos de todos los gaussianos G. Específicamente, esto se logra examinando una vecindad esférica de radio r. Las distribuciones gaussianas ubicadas dentro de estos límites esféricos en G luego se agregan al resultado final de la segmentación G s . El radio r se establece en la distancia máxima del vecino más cercano en G' t :

Insertar descripción de la imagen aquí

4. Experimentar

1.Conjunto de datos

  Experimentos cuantitativos, utilizando la selección de objetos volumétricos neuronales (NVOS), conjunto de datos SPIn-NeRF [33]. El conjunto de datos NVOS se basa en el conjunto de datos LLFF, que incluye varios escenarios futuros. Para cada escena, el conjunto de datos NVOS proporciona una vista de referencia con garabatos y una vista de destino anotada con máscaras de segmentación 2D. De manera similar, el conjunto de datos SPIn-NeRF [33] también anota manualmente algunos datos basados ​​en el conjunto de datos NeRF ampliamente utilizado [11, 24, 26, 31, 32]. Además, también anotamos algunos objetos en la escena LERF-Figurine usando SA3D para demostrar la mejor compensación de SAGA en términos de eficiencia y calidad de segmentación.

  Para el análisis cualitativo, se utilizaron LLFF, MIP-360, conjunto de datos T&T y conjunto de datos LERF.

2. Experimento cuantitativo

  NVOS : sigue SA3D [5] para procesar graffiti proporcionado por el conjunto de datos NVOS para cumplir con los requisitos de SAM. Como se muestra en la Tabla 1, SAGA es el mismo que el SOTA SA3D anterior y supera significativamente los métodos anteriores basados ​​en imitación de características (ISRF y SGISRF), lo que demuestra sus capacidades de segmentación detallada.

  SPIn-NeRF : La evaluación sigue SPIn-NeRF, que especifica una vista con una máscara de verdad terrestre 2D y propaga esta máscara a otras vistas para verificar la precisión de la máscara. Esta operación puede considerarse como un mensaje de enmascaramiento. Los resultados se muestran en la Tabla 2. MVSeg utiliza el método de segmentación de video [4] para segmentar imágenes de múltiples vistas, y SA3D consulta automáticamente el modelo básico de segmentación bidimensional de la imagen renderizada en la vista de entrenamiento. Ambos requieren proponer muchas veces un modelo de segmentación 2D. Sorprendentemente, SAGA muestra un rendimiento comparable al de ellos casi una milésima parte del tiempo. Tenga en cuenta que la ligera degradación se debe a la geometría subóptima aprendida por 3DGS.

  Comparación con SA3D . Ejecute SA3D basado en la escena LERF-futtes para obtener un conjunto de anotaciones para muchos objetos. Posteriormente, utilizamos SAGA para segmentar los mismos objetos y verificar el IoU y el costo de tiempo de cada objeto. Los resultados se muestran en la Tabla 3 y también proporcionamos resultados de visualización en comparación con SA3D. Vale la pena señalar que la resolución de entrenamiento de SAGA es mucho mayor debido al enorme costo de memoria GPU de SA3D. Esto muestra que SAGA puede obtener activos 3D de mayor calidad en menos tiempo. Incluso teniendo en cuenta el tiempo de entrenamiento (~10 minutos por escena), el tiempo promedio de segmentación por objeto en SAGA es mucho menor que el de SA3D.
Insertar descripción de la imagen aquí

3. experimento cualitativo

Insertar descripción de la imagen aquí

4. Casos de fracaso

En la Tabla 2, SAGA muestra un rendimiento subóptimo en comparación con los métodos anteriores. Esto se debe a que la segmentación de la escena de la sala LLFF falla, lo que revela las limitaciones de SAGA. Mostramos en la Figura 4 el promedio de las funciones gaussianas coloreadas, que pueden verse como una especie de nube de puntos. SAGA es susceptible a una reconstrucción geométrica insuficiente de los modelos 3DGS . Como se muestra en el cuadro rojo, las gaussianas de la tabla son significativamente escasas, y las gaussianas representan la superficie de la mesa flotando debajo de la superficie real. Para empeorar las cosas, el gaussiano de la silla está muy cerca de la persona de la mesa. Estos problemas no sólo dificultan el aprendizaje de características 3D discriminativas sino que también afectan la eficacia del posprocesamiento. Creemos que mejorar la fidelidad geométrica de los modelos 3DGS puede mejorar este problema.

Insertar descripción de la imagen aquí







  

  


d\sqrt{d}d 1 0.24 \frac {1}{0.24}0,241 x ˉ \bar{x}Xˉ x ^ \sombrero{x}X^ x ~ \tilde{x}X~ ϵ \épsilonϵ



Resumir

提示:这里对文章进行总结:

Por ejemplo: lo anterior es de lo que hablaré hoy. Este artículo solo presenta brevemente el uso de pandas, y pandas proporciona una gran cantidad de funciones y métodos que nos permiten procesar datos de manera rápida y conveniente.

Supongo que te gusta

Origin blog.csdn.net/qq_45752541/article/details/135380635
Recomendado
Clasificación