¡Microsoft lanzó oficialmente un tutorial en persona para dominar el juego avanzado de "Prompt Project"!

 Productos secos Datawhale 

Más reciente: tutorial rápido , compilación: corazón de la máquina

Con el modelo grande, el siguiente paso es diseñar el indicador.

En los últimos meses, se han lanzado uno tras otro modelos grandes como ChatGPT y GPT-4. Estos modelos exhiben una fuerte capacidad emergente, pero los resultados generados por los modelos son aleatorios, buenos y malos, parte de la razón está estrechamente relacionada con el diseño de Prompt.

Muchas personas comparan Prompt con el hechizo de un modelo grande, que tiene una gran influencia en la orientación del modelo para generar contenido. Cómo elegir Prompt se ha convertido en una preocupación para todos los investigadores de IA. Recientemente, Microsoft lanzó oficialmente un tutorial, que presenta algunos juegos avanzados en diseño e ingeniería de Prompt, cubriendo mensajes del sistema, aprendizaje de pocas muestras, escenarios sin chat, etc.

70d334c85125285d425af3da09fe33de.png

Cada parte del contenido tiene una introducción técnica y una pantalla de ejemplo. Echemos un vistazo al contenido específico a continuación.

Acerca de Prompt, debe conocer estos

información del sistema

Los mensajes del sistema se incluyen al comienzo de la solicitud para proporcionar al modelo contexto, instrucciones u otra información relevante para el caso de uso. Los usuarios pueden describir lo que el modelo debe y no debe responder a través de los mensajes del sistema y definir el formato de la respuesta del modelo.

La siguiente figura muestra un ejemplo de un mensaje del sistema y una respuesta generada por el modelo:

9dd7e2eb5d4ed2b8c18da0abd3756009.png

Por lo general, los mensajes del sistema también pueden verse así:

  • El Asistente de la tabla anterior es un gran modelo de lenguaje entrenado por OpenAI.

  • Assistant es un chatbot inteligente diseñado para ayudar a los usuarios a responder preguntas. Requiera que el modelo responda preguntas solo usando el contexto dado, y si no está seguro de la respuesta, puede decir "No sé".

  • Assistant es un chatbot inteligente que, por ejemplo, ayuda a los usuarios a responder preguntas relacionadas con los impuestos.

  • Otro ejemplo es que eres un Asistente diseñado para extraer entidades del texto. El usuario pegará una cadena de texto y tú responderás en forma de objeto JSON con las entidades que extrajiste del texto.

Aquí hay un ejemplo del formato de salida:

{
"name": "",
"company": "",
"phone_number": ""
}

Lo anterior se trata de la introducción de mensajes del sistema, pero un detalle importante es que incluso con mensajes del sistema bien diseñados, el modelo aún puede generar respuestas de error que contradicen las instrucciones del mensaje del sistema.

aprendizaje de pocos disparos

Una forma común de adaptar un modelo de lenguaje a una nueva tarea es usar el aprendizaje de pocos disparos. El aprendizaje de pocos disparos proporciona un conjunto de muestras de entrenamiento como parte de un aviso para proporcionar información contextual adicional al modelo.

Una secuencia de mensajes (escritos en el nuevo formato de Aviso) entre el usuario y el Asistente puede servir como ejemplo para el aprendizaje de pocas tomas. Estos ejemplos se pueden usar para guiar a los modelos a responder de cierta manera, simular comportamientos específicos y proporcionar respuestas iniciales a preguntas comunes.

ab433573229f10c03137d2f9d4584c09.png

La estructura básica de un aviso.

escena sin diálogo

Aunque el escenario de aplicación principal del modelo grande actual es el escenario de generación de diálogo, también se puede utilizar en escenarios sin diálogo. Por ejemplo, para un escenario de análisis de opinión, puede usar el siguiente mensaje:

2b324bd7aa5b1dbd3210502f7ad6ae40.png

utilizar instrucciones explícitas

En general, el orden en que aparece la información en un indicador es importante. Dado que los modelos similares a GPT se construyen de una manera específica, el proceso de construcción define lo que hace el modelo con la entrada. La investigación ha demostrado que decirle al modelo lo que quiere que haga al comienzo de un aviso, antes de compartir información contextual adicional o ejemplos, puede ayudar al modelo a producir resultados de mayor calidad.

f75c7ae7a9a4f4941467f221a3814af3.png

Repite el comando por última vez

Los modelos son susceptibles a sesgos recientes, en cuyo caso la información del aviso final puede tener un mayor impacto en el resultado que la información del aviso inicial. Por lo tanto, vale la pena intentar repetir las instrucciones al final del aviso.

operaciones en la salida

Este es el caso cuando se incluyen varias palabras o frases al final de la Indicación para obtener una respuesta modelo que se ajuste a la forma deseada. Por ejemplo, usar un mensaje como "Aquí hay una lista con viñetas de los puntos clave:\n-" puede ayudar a garantizar que la salida tenga el formato de una lista con viñetas.

dc7d70b3e387d4ad7576bab206d999f9.png

agregar sintaxis

Agregue sintaxis a las indicaciones, como puntuación, encabezados, etc. Al hacerlo, la salida será más fácil de analizar.

En el siguiente ejemplo, se agrega un separador (en este caso ---) entre diferentes fuentes de información o pasos. Esta operación permite el uso de --- como condición de parada para la generación. Además, algunos encabezados o variables especiales se escriben con mayúscula para su distinción.

afbff35ba3656cb2030cb381cbff7372.png

desglosar tareas

Los modelos de lenguaje extenso (LLM) a menudo funcionan mejor si la tarea se divide en pasos más pequeños.

40aebfa77b60077ac141116adddaaa36.png

Tenga en cuenta que la sintaxis se utiliza aquí para distinguir las distintas partes y para inicializar la salida. Dividir la tarea de un paso en dos pasos no es inmediatamente obvio en este ejemplo simple, pero cuando se trata de hacer esto para grandes bloques de texto que contienen muchas declaraciones fácticas, dividir la tarea hace una diferencia significativa.

cadena de consejos de pensamiento

Esta es una variación de la técnica de tareas divididas. En este enfoque, en lugar de dividir la tarea en pasos más pequeños, se instruye al modelo para que responda paso a paso y presente todos los pasos involucrados. Al hacerlo, se reducen los resultados imprecisos y se facilita la evaluación de las respuestas del modelo.

f760d057bcb483bf532d7578413143d6.png

proporcionar un contexto real

Bajo este método, este trabajo propone proporcionar datos reales al modelo. En general, cuanto más cerca están los datos sin procesar de la respuesta final, menos trabajo tiene que hacer el modelo, lo que significa que menos posibilidades tiene el modelo de cometer errores. En el siguiente ejemplo, el mensaje del sistema proporciona los últimos artículos y luego le pide al modelo que proporcione algunos de los primeros clientes, y el modelo da la respuesta con precisión.

819c288b378a760de15b83cfe2085322.png

Además, Microsoft también introdujo otros consejos sobre Prompt en esta guía. Puede ir al texto original para obtener más información.

Dirección de aprendizaje: https://learn.microsoft.com/en-us/azure/cognitive-services/openai/concepts/advanced-prompt-engineering?pivots=programming-language-chat-completions#specifying-the-output-structure


Más aprendizaje (Wu Enda + Datawhale):
"Wu Enda ChatGPT último curso", la versión china está llegando

"Guía de aplicación y desarrollo de ChatGPT", código abierto de Datawhale

6e2bc305d19fd0587b70f66a20f1dd62.png

Aprendizaje de productos secos, como tres veces

Supongo que te gusta

Origin blog.csdn.net/Datawhale/article/details/130664336
Recomendado
Clasificación