Descripción general de la detección de actitud 6D (RGB, RGBD, radar) de brazos robóticos

1. Ojo único:

(1) GDR-Net: red de regresión directa guiada por geometría para la estimación de la pose de objetos monoculares 6D (GDR-Net: red de regresión directa guiada por geometría para la estimación de la pose de objetos monoculares 6D)

(2) Estimación de la pose de objetos 6D autosupervisada para la manipulación de robots (estimación de la pose de objetos 6D autosupervisada para la manipulación de robots)

(3) Red de votación de píxeles regionales (RPVNet) para estimación de pose 6D a partir de imágenes monoculares (RPVNet)

(4) Estimación de pose de 6DoF de extremo a extremo a partir de imágenes RGB monoculares (estimación de pose de 6DoF de extremo a extremo de imágenes RGB monoculares)

(5) Self6D: Estimación de la postura del objeto monocular 6D autosupervisada (Self6D: Estimación de la pose del objeto monocular 6D autosupervisada)

(6) Estimación de la postura del objeto 6D monocular autosupervisada consciente de la oclusión (Estimación de la postura del objeto 6D monocular autosupervisada consciente de la oclusión)

(7) CPS++: Mejora de la estimación de pose y forma 6D a nivel de clase a partir de imágenes monoculares con aprendizaje autosupervisado (CPS++: Mejora de la estimación de pose y forma 6D a nivel de clase a partir de imágenes monoculares con aprendizaje autosupervisado)

2 、 RGBD:

(1) Estimación robusta de la pose de objetos 6D mediante el aprendizaje de características RGB-D (estimación robusta de la pose de objetos 6D basada en características RGB-D)

(2) DenseFusion: estimación de la pose del objeto 6D mediante fusión densa iterativa (DenseFusion: estimación de la pose del objetivo 6D basada en una fusión densa iterativa)

(3) Detección de objetos sin textura y estimación de pose 6D en imágenes RGB-D (Detección de objetos sin textura y estimación de pose 6D en imágenes RGB-D)

(4) Estimación de la pose de objetos 6D de múltiples vistas y planificación del movimiento de la cámara utilizando imágenes RGBD (Estimación de la pose de objetos 6D de múltiples vistas y planificación del movimiento de la cámara utilizando imágenes RGBD)

(5) Aprendizaje de la estimación de pose 6D a partir de imágenes RGBD sintéticas para aplicaciones robóticas (Aprendizaje de la estimación de pose 6D a partir de imágenes RGBD sintéticas para aplicaciones robóticas)

3. Imagen térmica infrarroja:

(1) Segmentación semántica de imágenes térmicas: un estudio comparativo

(2) Una red adversaria generativa para la fusión de imágenes visibles e infrarrojas basada en la segmentación semántica (red adversaria generativa de fusión de imágenes visibles infrarrojas basada en la segmentación semántica)

(3) ARTSeg: Empleo de atención para la segmentación semántica de imágenes térmicas (ARTSeg: Empleo de atención para la segmentación semántica de imágenes térmicas)

(4) MS-UDA: Adaptación de dominio multiespectral no supervisada para segmentación semántica de imágenes térmicas (MS-UDA: Adaptación de dominio multiespectral no supervisada para segmentación semántica de imágenes térmicas)

4. Lídar:

(1) ECPC-ICP: un método de estimación de la postura del vehículo 6D fusionando la nube de puntos Lidar en la carretera y la característica de la carretera (ECPC-ICP: un método de estimación de la postura del vehículo 6D fusionando la nube de puntos Lidar en la carretera y la característica de la carretera)

(2) PointRCNN: generación y detección de propuestas de objetos 3D desde la nube de puntos (PointRCNN: generación y detección de propuestas de objetos 3D desde la nube de puntos)

 (3) PV-RCNN: abstracción de conjunto de características de punto-vóxel para la detección de objetos 3D (PV-RCNN: abstracción de conjunto de características de punto-vóxel para la detección de objetos 3D)

(4) PointPillars: codificadores rápidos para la detección de objetos desde nubes de puntos (PointPillars: codificadores rápidos para la detección de objetos desde nubes de puntos)

5. Mezclando:

(1) CL3D: Detección de objetos 3D con cámara-LiDAR con mejora de características puntuales y fusión guiada por puntos (CL3D: Detección de objetos 3D con cámara-LiDAR con mejora de características puntuales y fusión guiada por puntos)

(2) CLOC: Fusión de candidatos de objetos cámara-LiDAR para la detección de objetos 3D (CLOC: Fusión de candidatos de objetos cámara-LiDAR para la detección de objetos 3D)

(3) CramNet: fusión de cámara y radar con atención cruzada restringida por rayos para una detección sólida de objetos 3D (CramNet: fusión de cámara y radar con atención cruzada restringida por rayos para una detección sólida de objetos 3D)


1. Ojo único:

(1) GDR-Net: red de regresión directa guiada por geometría para la estimación de la pose de objetos monoculares 6D  (GDR-Net: red de regresión directa guiada por geometría para la estimación de la pose de objetos monoculares 6D)

https://openaccess.thecvf.com/content/CVPR2021/papers/Wang_GDR-Net_Geometry-Guided_Direct_Regression_Network_for_Monocular_6D_Object_Pose_CVPR_2021_paper.pdf

(2) Estimación de la pose de objetos 6D autosupervisada para la manipulación de robots (estimación de la pose de objetos 6D autosupervisada para la manipulación de robots)

https://arxiv.org/pdf/1909.10159.pdf

(3) Red de votación de píxeles de la región (RPVNet) para la estimación de pose 6D a partir de imágenes monoculares (Red de votación de píxeles de la región RPVNet para la estimación de pose 6D de imágenes monoculares)

Red de votación de píxeles regionales (RPVNet) para la estimación de pose 6D a partir de una imagen monocular

(4) Estimación de pose de 6DoF de extremo a extremo a partir de imágenes RGB monoculares (estimación de pose de 6DoF de extremo a extremo de imágenes RGB monoculares)

Estimación de pose 6DoF de extremo a extremo a partir de imágenes RGB monoculares | Revistas y revistas IEEE | Exploración IEEE

(5) Self6D: Estimación de la postura del objeto monocular 6D autosupervisada (Self6D: Estimación de la pose del objeto monocular 6D autosupervisada)

https://arxiv.org/pdf/2004.06468.pdf

(6) Estimación de la postura del objeto 6D monocular autosupervisada consciente de la oclusión (Estimación de la postura del objeto 6D monocular autosupervisada consciente de la oclusión)

https://arxiv.org/pdf/2203.10339.pdf

(7) CPS++: Mejora de la estimación de pose y forma 6D a nivel de clase a partir de imágenes monoculares con aprendizaje autosupervisado  (CPS++: Mejora de la estimación de pose y forma 6D a nivel de clase a partir de imágenes monoculares con aprendizaje autosupervisado)

https://arxiv.org/pdf/2003.05848.pdf

2 、 RGBD:

(1) Estimación robusta de la pose del objeto 6D mediante el aprendizaje de características RGB-D (estimación robusta de la pose del objetivo 6D basada en características RGB-D)

https://arxiv.org/pdf/2003.00188.pdf

(2) DenseFusion: estimación de la pose del objeto 6D mediante fusión densa iterativa  (DenseFusion: estimación de la pose del objetivo 6D basada en una fusión densa iterativa)

https://openaccess.thecvf.com/content_CVPR_2019/papers/Wang_DenseFusion_6D_Object_Pose_Estimation_by_Iterative_Dense_Fusion_CVPR_2019_paper.pdf

(3) Detección de objetos sin textura y estimación de pose 6D en imágenes RGB-D  (Detección de objetos sin textura y estimación de pose 6D en imágenes RGB-D)

https://www.sciencedirect.com/science/article/abs/pii/S0921889016308442

Enlace de vista directa: Sci-Hub | Detección de objetos sin textura y estimación de pose 6D en imágenes RGB-D | 10.1016/j.robot.2017.06.003

(4) Estimación de la pose de objetos 6D de múltiples vistas y planificación del movimiento de la cámara utilizando imágenes RGBD (Estimación de la pose de objetos 6D de múltiples vistas y planificación del movimiento de la cámara utilizando imágenes RGBD)

https://openaccess.thecvf.com/content_ICCV_2017_workshops/papers/w31/Sock_Multi-View_6D_Object_ICCV_2017_paper.pdf

(5) Aprendizaje de la estimación de pose 6D a partir de imágenes RGBD sintéticas para aplicaciones robóticas (Aprendizaje de la estimación de pose 6D a partir de imágenes RGBD sintéticas para aplicaciones robóticas)

https://arxiv.org/pdf/2208.14288.pdf

3. Imagen térmica infrarroja:

(1) Segmentación semántica de imágenes térmicas: un estudio comparativo

https://openaccess.thecvf.com/content/CVPR2022W/PBVS/papers/Kutuk_Semantic_Segmentation_for_Thermal_Images_A_Comparative_Survey_CVPRW_2022_paper.pdf

(2) Una red generativa adversaria para la fusión de imágenes visibles e infrarrojas basada en la segmentación semántica

Entropía | Texto completo gratuito | Una red generativa adversaria para la fusión de imágenes visibles e infrarrojas basada en la segmentación semántica

(3) ARTSeg: Empleo de atención para la segmentación semántica de imágenes térmicas (ARTSeg: Empleo de atención para la segmentación semántica de imágenes térmicas)

https://arxiv.org/pdf/2111.15257.pdf

(4) MS-UDA: Adaptación de dominio multiespectral no supervisada para segmentación semántica de imágenes térmicas (MS-UDA: Adaptación de dominio multiespectral no supervisada para segmentación semántica de imágenes térmicas)

MS-UDA: Adaptación de dominio multiespectral no supervisado para segmentación semántica de imágenes térmicas | Revistas y revistas IEEE | Exploración IEEE


4. Lídar:

(1) ECPC-ICP: un método de estimación de la postura del vehículo 6D fusionando la nube de puntos Lidar en la carretera y la característica de la carretera (ECPC-ICP: un método de estimación de la postura del vehículo 6D fusionando la nube de puntos Lidar en la carretera y la característica de la carretera)

Sensores | Texto completo gratuito | ECPC-ICP: un método de estimación de la postura del vehículo en 6D mediante la fusión de la nube de puntos Lidar en la carretera y la característica de la carretera

(2) PointRCNN: generación y detección de propuestas de objetos 3D desde la nube de puntos (PointRCNN: generación y detección de propuestas de objetos 3D desde la nube de puntos)

https://openaccess.thecvf.com/content_CVPR_2019/papers/Shi_PointRCNN_3D_Object_Proposal_Generation_and_Detection_From_Point_Cloud_CVPR_2019_paper.pdf

 (3) PV-RCNN: abstracción de conjunto de características de punto-vóxel para la detección de objetos 3D (PV-RCNN: abstracción de conjunto de características de punto-vóxel para la detección de objetos 3D)

https://openaccess.thecvf.com/content_CVPR_2020/papers/Shi_PV-RCNN_Point-Voxel_Feature_Set_Abstraction_for_3D_Object_Detection_CVPR_2020_paper.pdf

(4) PointPillars: codificadores rápidos para la detección de objetos desde nubes de puntos (PointPillars: codificadores rápidos para la detección de objetos desde nubes de puntos)

https://openaccess.thecvf.com/content_CVPR_2019/papers/Lang_PointPillars_Fast_Encoders_for_Object_Detection_From_Point_Clouds_CVPR_2019_paper.pdf


5. Mezclando:

(1) CL3D: Detección de objetos 3D con cámara-LiDAR con mejora de características puntuales y fusión guiada por puntos (CL3D: Detección de objetos 3D con cámara-LiDAR con mejora de características puntuales y fusión guiada por puntos)

https://eprints.gla.ac.uk/266475/2/266475.pdf

(2) CLOC: Fusión de candidatos de objetos cámara-LiDAR para la detección de objetos 3D (CLOC: Fusión de candidatos de objetos cámara-LiDAR para la detección de objetos 3D)

https://arxiv.org/pdf/2009.00784.pdf

(3) CramNet: fusión de cámara y radar con atención cruzada restringida por rayos para una detección sólida de objetos 3D (CramNet: fusión de cámara y radar con atención cruzada restringida por rayos para una detección sólida de objetos 3D)

https://arxiv.org/pdf/2210.09267.pdf

Supongo que te gusta

Origin blog.csdn.net/Callme_TeacherPi/article/details/128205823
Recomendado
Clasificación