Migración de modelos con un solo clic
Análisis de sentimientos: el proceso de analizar, procesar, resumir e inferir textos emocionalmente subjetivos.
BERT (Representaciones de codificador bidireccional de transformadores) es un modelo histórico de comprensión del lenguaje natural propuesto por Google. BERT puede hacer un uso completo de datos masivos sin etiquetar para entrenar previamente el modelo, y el modelo puede aprender una gran cantidad de conocimiento del idioma. Con base en el conocimiento previo previo a la capacitación, se pueden lograr mejores resultados ajustando las tareas posteriores.
Ruta de descarga del modelo:
mindconverter --model_file bert_zh.onnx \ --shape 1,512 1,512 1,512 \ --input_nodes input_ids attention_mask token_type_ids \ --output_nodes output_0 output_1
Después de ejecutar este comando, el archivo convertido se guarda en el directorio de salida en el directorio actual (el tiempo de conversión es de aproximadamente 3 a 5 minutos).
Modo de desarrollo unificado dinámico y estático
Visualización del proceso de entrenamiento
Use MindInsight para observar el proceso de entrenamiento
Use MindInsight para observar los datos de rendimiento
recomendación de estudio
• Arquitectura MindSpore: Arquitectura MindSpore
• Arquitectura MindInsight: Arquitectura MindInsight
• Guía de uso de MindConverter: Guía de uso de MindConverter • Guía de uso
del depurador: Guía de uso del depurador • Guía de uso del depurador
de rendimiento: Guía de uso del depurador de rendimiento