Ajuste de Llama 2 para la predicción de categorías de noticias: una guía completa paso a paso para ajustar cualquier LLM (Parte 2)

En este blog, lo guiaré a través del proceso de ajuste del modelo Llama 2 7B de Meta para la clasificación de artículos de noticias en 18 categorías diferentes. Utilizaré un conjunto de datos de instrucciones de clasificación de noticias creado previamente con GPT 3.5. Si está interesado en cómo generé este conjunto de datos y la motivación detrás de este pequeño proyecto, puede consultar mi blog o cuaderno anterior donde analizo los detalles.

El propósito de este cuaderno es proporcionar un tutorial completo paso a paso para perfeccionar cualquier LLM (modelo de lenguaje grande). A diferencia de muchos tutoriales disponibles, explicaré cada paso en detalle, cubriendo todas las clases, funciones y parámetros utilizados.

Esta guía se dividirá en dos partes:

Parte 1: Configuración y preparación para el ajuste

Instalar y cargar los módulos necesarios
Pasos para obtener la aprobación para los modelos de la serie Llama 2 de Meta
Configurar Hugging Face CLI y autenticación de usuario
Cargar modelos previamente entrenados y sus tokenizadores asociados
Cargar conjuntos de datos de entrenamiento
Preprocesar conjuntos de datos de entrenamiento para ajustar el modelo

Parte 2: Ajuste y código abierto [este blog]

Configure el método QLoRA PEFT (ajuste eficiente de parámetros) para un ajuste fino eficiente
. Ajuste el modelo previamente entrenado.
Guarde el modelo ajustado y su tokenizador asociado.
Empuje el modelo ajustado a Hugging Face Hub para que sea
posible su uso público. Si se ejecuta en Google Colab, vaya a Tiempos de ejecución > Cambiar tipo de tiempo de ejecución. Cambie el acelerador de hardware a GPU. Cambie el tipo de GPU a T4. Cambie la forma del tiempo de ejecución a RAM alta.

¡Empecemos!

Crear una configuración PEFT

El ajuste fino de un LLM previamente capacitado en un conjunto de datos posterior genera un enorme aumento de rendimiento en comparación con el uso de un LLM previamente capacitado listo para usar. Sin embargo, a medida que los modelos se hacen cada vez más grandes, las microempresas a gran escala

Je suppose que tu aimes

Origine blog.csdn.net/iCloudEnd/article/details/132635249
conseillé
Classement