Reproducción de código de problema principal de Sports Imagination-2, conjunto de datos BCI IV-2a (python3.7 + TensorFlow2.4.0)

Graba el código que se reproduce durante tu propio proceso de aprendizaje 

Artículo original (publicado en agosto de 2022)

Red convolucional temporal de atención informada por la física para la clasificación de imágenes motoras basadas en EEG
 

 Diario: (factor de impacto 11.6+)

TRANSACCIONES IEEE SOBRE INFORMÁTICA INDUSTRIAL

Resumen

西文:La interfaz cerebro-computadora (BCI) es una tecnología de punta que tiene el potencial de cambiar el mundo. La señal de imágenes motoras (MI) del electroencefalograma (EEG) se ha utilizado ampliamente en muchas aplicaciones BCI para ayudar a las personas discapacitadas, controlar dispositivos o entornos, e incluso aumentar las capacidades humanas. Sin embargo, el rendimiento limitado de la decodificación de señales cerebrales está restringiendo el amplio crecimiento de la industria de BCI. En este artículo, proponemos una red convolucional temporal basada en la atención (ATCNet) para la clasificación de imágenes motoras basadas en EEG. El modelo ATCNet utiliza múltiples técnicas para impulsar el rendimiento de la clasificación de MI con un número relativamente pequeñode parámetros ATCNet emplea el aprendizaje automático científico para diseñar un modelo de aprendizaje profundo específico del dominio con características interpretables y explicables, autoatención de varios cabezales para resaltar las características más valiosas en los datos MI-EEG, red convolucional temporal para extraer características temporales de alto nivel y ventana deslizante basada en convoluciones para aumentar los datos MI-EEG de manera eficiente. El modelo propuesto supera las técnicas de vanguardia actuales en el conjunto de datos BCI Competition IV-2a con una precisión del 85,38 % y el 70,97 % para los modos dependiente e independiente del sujeto , respectivamente.

Traducción: La interfaz cerebro-computadora (BCI) es una tecnología de punta que tiene el potencial de cambiar el mundo. Las señales de imagen en movimiento (MI) de electroencefalografía (EEG) se han utilizado ampliamente en muchas aplicaciones de BCI para ayudar a las personas discapacitadas a controlar dispositivos o entornos, e incluso aumentar las capacidades humanas. Sin embargo, el rendimiento limitado de la decodificación de señales cerebrales ha limitado el amplio desarrollo de la industria de BCI. En este artículo, proponemos una red convolucional temporal basada en la atención (ATCNet) para la clasificación de imágenes en movimiento basada en EEG. Este modelo de ATCNet utiliza varias técnicas para mejorar el rendimiento de la clasificación de MI con un número relativamente pequeño de parámetros. ATCNet adopta el aprendizaje automático científico para diseñar un modelo de aprendizaje profundo específico del dominio con características interpretables y responsables, autoatención de varios cabezales para resaltar las características más valiosas en los datos MI-EEG, red convolucional temporal para extraer características temporales de alto nivel y características deslizantes basadas en convolución. Las redes convolucionales temporales extraen características temporales de alto nivel y las ventanas deslizantes basadas en convolución mejoran de manera efectiva los datos MI-EEG. El modelo propuesto supera el estado del arte actual en BCI. En el conjunto de datos IV-2a, el modelo propuesto supera el estado del arte actual con una precisión del 85,38 % y el 70,97 %.

 Hoja de ruta tecnológica

 

 entorno de laboratorio

CUDA = 11,0

oculto = 8.0

pitón = 3.7

tensorflow =2.4.0

Resultados experimentales

Subject: 1   best_run: 1   acc: 0.9149   kappa: 0.8866   avg_acc: 0.8629 +- 0.0124   avg_kappa: 0.8171 +- 0.0166
Subject: 2   best_run: 1   acc: 0.8090   kappa: 0.7454   avg_acc: 0.6448 +- 0.0326   avg_kappa: 0.5264 +- 0.0435
Subject: 3   best_run: 1   acc: 0.9861   kappa: 0.9815   avg_acc: 0.9410 +- 0.0143   avg_kappa: 0.9213 +- 0.0191
Subject: 4   best_run: 1   acc: 0.8264   kappa: 0.7685   avg_acc: 0.7677 +- 0.0258   avg_kappa: 0.6903 +- 0.0344
Subject: 5   best_run: 1   acc: 0.8681   kappa: 0.8241   avg_acc: 0.8017 +- 0.0142   avg_kappa: 0.7356 +- 0.0189
Subject: 6   best_run: 5   acc: 0.8194   kappa: 0.7593   avg_acc: 0.7118 +- 0.0170   avg_kappa: 0.6157 +- 0.0227
Asunto: 7 best_run: 10 acc: 0.7257 kappa: 0.6343 avg_acc: 0.8986 +- 0.0296 avg_kappa: 0.8648 +- 0.0394 Asunto: 8 best_run: 7 acc
: 0.9271 kappa: 0.9028 avg_acc: 0.8722 +- 0.0133 avg_kappa: 0.8296 +- 0.0178 Asunto: 9 best_run: 1 acc: 0.9080 kappa: 0.8773 avg_acc: 0.8778 +- 0.0186 avg_kappa: 0.8370 +-
0.0247

Promedio de 9 sujetos - mejores carreras:
Precisión = 0.8650 Kappa = 0.8200

Promedio de 9 sujetos x 10 corridas (promedio de 90 experimentos):
Precisión = 0.8198 Kappa = 0.7598
 

 

 Finalizar

Supongo que te gusta

Origin blog.csdn.net/Nan_Feng_ya/article/details/130869723
Recomendado
Clasificación