Directorio de artículos
-
- Wasserstein completamente
- Transformador
- VIT
- Transformadores de visión residual Resvit para síntesis de imágenes médicas multimodales (TMI2022)
- TransUNet: Los transformadores son codificadores potentes para la segmentación de imágenes médicas
- Los codificadores automáticos enmascarados son estudiantes de visión escalables. Los codificadores automáticos enmascarados son estudiantes de visión escalables.
- Conjunto de datos BraTS2020
- Explicación detallada de la estructura de la red Swin-Transformer
- Swin-Unet: transformador puro similar a Unet para la segmentación de imágenes médicas
- Adaptación de dominio (ADDA)
Wasserstein completamente
GAN tiene muchos problemas: colapso del modo, dificultad de convergencia, etc.
https://zhuanlan.zhihu.com/p/25071913
Transformador
Transformador ilustrado (versión completa)
https://blog.csdn.net/longxinchen_ml/article/details/86533005
Mecanismo de autoatención (autoatención)
https://blog.csdn.net/m0_63520910/article/details/124100836
Explicación detallada del transformador sobre la capa de incrustación y codificación posicional (para principiantes)
https://blog.csdn.net/qq_41018669/article/details/120341783
Principios y cálculos de codificación posicional.
https://blog.csdn.net/weixin_44012382/article/details/113059423
VIT
Lectura intensiva en papel ViT párrafo por párrafo - Estación B arriba: aprenda notas explicativas de IA de Li Mu
El objetivo principal es convertir la imagen en un parche, asignar información diversa y luego pasarla al transformador como información de secuencia para su procesamiento.
https://zhuanlan.zhihu.com/p/422144659
Comprenda fácilmente los principios y el código fuente de ViT (Vision Transformer)
https://zhuanlan.zhihu.com/p/640013974
Transformadores de visión residual Resvit para síntesis de imágenes médicas multimodales (TMI2022)
https://zhuanlan.zhihu.com/p/528184431
TransUNet: Los transformadores son codificadores potentes para la segmentación de imágenes médicas
https://blog.csdn.net/Acmer_future_victor/article/details/125855664
https://zhuanlan.zhihu.com/p/391886528
Los codificadores automáticos enmascarados son estudiantes de visión escalables. Los codificadores automáticos enmascarados son estudiantes de visión escalables.
https://zhuanlan.zhihu.com/p/439554945
Conjunto de datos BraTS2020
https://blog.csdn.net/weixin_43953722/article/details/107521440 Explicación detallada del procesamiento del conjunto de datos BraTS (con explicación detallada del código)
https://blog.csdn.net/m0_46223009/article/details/128126000 Biblioteca de terceros de Python nibabel
https://blog.csdn.net/huangdianye/article/details/131692451 Procesamiento de imágenes médicas: lectura e interpretación de archivos NII
https://blog.csdn.net/qq_44289607/article/details/123032453 Explicación detallada de diversos procesamientos de datos nii
Explicación detallada de la estructura de la red Swin-Transformer
https://blog.csdn.net/weixin_54546190/article/details/124422937 Explicación del código
Swin-Unet: transformador puro similar a Unet para la segmentación de imágenes médicas
https://blog.csdn.net/weixin_49627776/article/details/117305352 [Notas del documento de aprendizaje profundo] Swin-Unet: transformador puro similar a Unet para la segmentación de imágenes médicas
https://zhuanlan.zhihu.com/p/384514268?ivk_sa=1024320u explicación del código
https://blog.csdn.net/weixin_43788575/article/details/121074755 Swin-Unet: el primer intento de Swin Transformer de segmentación médica
Adaptación de dominio (ADDA)
https://zhuanlan.zhihu.com/p/421214903