[2023 · CANN Training Camp Temporada 1] Guía de ajuste rápido para el modelo de MindSpore Capítulo 4—Práctica de ajuste y depuración de MindSpore

Migración de modelos con un solo clic

Análisis de sentimientos: el proceso de analizar, procesar, resumir e inferir textos emocionalmente subjetivos.
BERT (Representaciones de codificador bidireccional de transformadores) es un modelo histórico de comprensión del lenguaje natural propuesto por Google. BERT puede hacer un uso completo de datos masivos sin etiquetar para entrenar previamente el modelo, y el modelo puede aprender una gran cantidad de conocimiento del idioma. Con base en el conocimiento previo previo a la capacitación, se pueden lograr mejores resultados ajustando las tareas posteriores.

Ruta de descarga del modelo:
mindconverter --model_file bert_zh.onnx \ --shape 1,512 1,512 1,512 \ --input_nodes input_ids attention_mask token_type_ids \ --output_nodes output_0 output_1

Después de ejecutar este comando, el archivo convertido se guarda en el directorio de salida en el directorio actual (el tiempo de conversión es de aproximadamente 3 a 5 minutos).

Modo de desarrollo unificado dinámico y estático

imagen.png
imagen.png

Visualización del proceso de entrenamiento

Use MindInsight para observar el proceso de entrenamiento
imagen.png
Use MindInsight para observar los datos de rendimiento
imagen.png

recomendación de estudio

• Arquitectura MindSpore: Arquitectura MindSpore
• Arquitectura MindInsight: Arquitectura MindInsight
• Guía de uso de MindConverter: Guía de uso de MindConverter • Guía de uso
del depurador: Guía de uso del depurador • Guía de uso del depurador
de rendimiento: Guía de uso del depurador de rendimiento

Supongo que te gusta

Origin blog.csdn.net/qq_45257495/article/details/130883730
Recomendado
Clasificación