Tutoriales de la serie Automated Office de ChatGPT - Preguntas: ¿Qué es Prompt?

Sabemos que el modelo GPT se llama detrás de ChatGPT, que es un modelo de lenguaje generativo.

En el campo de la IA generativa, la pregunta del usuario al modelo también se denomina aviso. ¿Por qué se llama Aviso en lugar de Pregunta aquí? De hecho, podemos entenderlo de esta manera:  aviso significa que cuando alguien olvida algo, puedes darle algunas pistas y él puede recordarlo .

Por ejemplo, si digo "Llueve mucho durante el Festival de Qingming", naturalmente pensará en la siguiente oración "Los peatones en la calle quieren morir".

aprendizaje autosupervisado

Por qué Prompt es la habilidad clave para usar ChatGPT, por lo que debemos comprender algunos conceptos.

La mayor parte del aprendizaje automático al que hemos estado expuestos anteriormente es un método de aprendizaje supervisado. Por ejemplo, en el campo del reconocimiento de imágenes tradicional, si queremos identificar si una persona en una imagen lleva una máscara, debemos decirle al modelo antes del entrenamiento. , Por ejemplo, si hay 100 imágenes, el aprendizaje supervisado necesita etiquetar estos modelos con anticipación y decirle al modelo qué imagen lleva una máscara y qué imagen no lleva una máscara; esto es aprendizaje supervisado.

El modelo GPT  aprende tareas de procesamiento del lenguaje natural mediante el entrenamiento previo de corpus a gran escala Durante el proceso de preentrenamiento, se utiliza una gran cantidad de corpus sin etiquetar, incluidos Wikipedia, noticias, novelas, etc.

En el entrenamiento previo, el modelo GPT utilizará el método de aprendizaje autosupervisado para predecir el texto de entrada y entrenar el modelo a través del mecanismo autosupervisado . En el proceso de predicción, el modelo intentará generar la siguiente palabra o carácter de acuerdo con el prefijo del texto de entrada.Este proceso se denomina predicción del modelo de lenguaje. De esta forma, el modelo GPT puede aprender las reglas del lenguaje, la información semántica y las relaciones contextuales en un corpus a gran escala, de modo que pueda aplicarse a diversas tareas de procesamiento del lenguaje natural.

Es por eso que cuando usamos ChatGPT, el contenido de la respuesta del modelo aparece palabra por palabra, en lugar de que aparezca todo el párrafo directamente, porque el modelo necesita predecir constantemente qué contenido responder a continuación . (Se puede entender como finalización de texto)

Inmediato

¿Y cuál es la predicción basada en el modelo? Es la predicción basada en el aviso que dimos.

 Procesamiento de datos y ofimática eficiente para escenarios de aplicación ChatGPT https://edu.csdn.net/course/detail/38806

 

 

 ChatGPT desde lo básico hasta el combate de proyectos https://edu.csdn.net/course/detail/38557

 

Por ejemplo, la niña con el vestido verde en la imagen de arriba representa Prompt. Les dijo a los tres niños tres diferentes indicaciones. En este momento, los tres niños pueden responder las preguntas correspondientes según las indicaciones.

La ventaja de usar Prompt en ChatGPT  es que puede limitar el espacio de generación del modelo y enfocarlo más en temas o tareas específicas . Debido a que el modelo GPT se basa en el aprendizaje autosupervisado a gran escala, aprende la información contextual del texto de entrada de manera muy completa, pero esto también conduce a que el texto generado por el modelo no coincida con el tema o la tarea esperados. Al agregar Prompt a la entrada, se puede obligar al modelo a prestar atención a información específica, mejorando así el rendimiento del modelo en tareas específicas .

Además, Prompt puede ayudar al modelo a utilizar mejor el conocimiento de la memoria aprendido en su aprendizaje autosupervisado . En el aprendizaje autosupervisado, el modelo GPT ha aprendido una gran cantidad de conocimientos y reglas del idioma, y ​​puede generar textos coherentes basados ​​en información contextual. Sin embargo, cuando se enfrenta a una tarea específica, es posible que el modelo no pueda aplicar directamente su conocimiento del aprendizaje autosupervisado porque necesita información de orientación específica para instruir la generación de texto adecuada . Guiado por Prompt, el modelo puede aprovechar mejor su conocimiento memorizado a partir del aprendizaje autosupervisado y generar texto que esté más en línea con las expectativas .

Es equivalente a cuando hacemos preguntas, cuanto más detallada sea la información del aviso, mayor será la calidad de la respuesta del modelo.

Tipo de recordatorio de tarea Aviso

Veamos algunos ejemplos:

Cuando quiero que ChatGPT me ayude a completar una oración,

Si escribo la primera mitad de esta oración directamente, el resultado es este:

En este momento, aunque ChatGPT completará nuestras oraciones, difiere en el pensamiento. En realidad, solo quiero un párrafo, pero me dio el párrafo completo.

Entonces, si agregamos restricciones a la entrada

ChatGPT puede completar con precisión nuestras necesidades y completar esta oración.

El "Por favor complete esta oración" anterior es algo que le decimos al modelo que haga, que se llama un tipo de recordatorio de tarea.

El aviso de recordatorio de tareas es un tipo de clasificación de avisos, que se utiliza para recordarle al modelo qué tarea hacer . Debido a que hay demasiadas tareas que se pueden realizar ingresando la misma oración, infórmele al modelo qué tarea hacer esta vez a través de Prompt . Por ejemplo, en ChatGPT, ingresamos una descripción, más el aviso de "traducción" o "pregunta y respuesta", luego ChatGPT generará los resultados correspondientes.

Lo anterior es solo el ejemplo más simple de Prompt, y existen muchas otras técnicas de prompt en aplicaciones prácticas.

Pregunta de respuesta

Por ejemplo, modo de control de calidad: también se puede llamar el formulario de solicitud de respuesta Prompt. En el siguiente ejemplo, hemos dado un resultado de explicación positivo o negativo en las primeras tres oraciones, lo que indica si la emoción reflejada en la oración actual es positiva o negativa. . Solo la última oración no se juzga, lo que significa que el modelo se basa en los tres contenidos anteriores y puede juzgar la emoción de la última oración por sí mismo.

Equivale al formato de usar preguntas y respuestas para guiar al modelo a completar una tarea

Después de ingresar una pregunta en ChatGPT, el modelo juzgará la última oración como negativa.

Este modo de control de calidad es equivalente a darle al modelo un aprendizaje situacional a través de una pequeña cantidad de sugerencias rápidas. Deje que el modelo juzgue a qué tipo de etiqueta pertenece el siguiente contenido.

Composición de Prompt

Los dos ejemplos anteriores representan respectivamente los tipos de diseño de dos avisos: aviso de tarea y aviso de respuesta.

Aunque la composición de las palabras de las indicaciones puede ser muy complicada, en general, una indicación puede contener los siguientes elementos

Instrucción  : Dígale al modelo la tarea que desea que realice, por ejemplo: "Por favor, traduzca la siguiente oración al inglés:" es una instrucción.

Contexto Contexto  : el contexto de la conversación actual es el contexto y el contexto. Por ejemplo, deje que ChatGPT realice un juego de roles y guíe a la IA para brindar un contenido de salida más preciso asignando un rol a la IA.

El siguiente ejemplo es para establecer un contexto para el modelo a través del juego de roles, y luego el modelo se sustituirá a sí mismo en el rol de un entrevistador de Microsoft para responder a nuestras preguntas.

Datos de entrada Datos de entrada  : Lo que desea consultar o encontrar una respuesta, como un fragmento de texto, una pregunta.

Aún así, el ejemplo anterior, "¿Cómo me entrevistarías?" son los datos de entrada en la palabra de aviso de Aviso.

Pero, por lo general, los datos de entrada por sí solos no son suficientes. Por ejemplo, el problema anterior debe cooperar con el contexto para limitar el contexto del problema.

Indicador de salida Indicador de salida : Dígale al modelo el tipo de salida o formato que desea.

Por ejemplo, deje que el modelo le dé una lista, o deje que el modelo le dé un resultado separado por punto y coma, todos pertenecen al Indicador de salida.

Debe tenerse en cuenta que no todas las solicitudes de solicitud contendrán todos los elementos, por ejemplo, algunas solo contendrán datos de entrada, mientras que otras contendrán datos de entrada e indicadores de salida, por lo que los elementos que se incluirán en una solicitud específica dependerán de los requisitos reales de la tarea. .

Resumir

Las palabras rápidas no solo son importantes en ChatGPT, es un concepto muy importante en todas las IA generativas, incluso específicamente para Prompt Recientemente, una nueva profesión ha circulado en Internet: Prompt- Ingeniería Ese es el trabajo: desarrollar y optimizar Prompt para mejorar usar modelos de lenguaje para diversas aplicaciones y temas.

Hoy solo les presentamos qué es Prompt. A través del contenido compartido hoy, debe saber que Prompt es el contenido que ingresamos cuando le preguntamos a ChatGPT, y Prompt se divide en tipo de solicitud de tarea y tipo de solicitud de respuesta según el tipo. puede ser Contiene varios componentes, como datos de entrada, datos de entrada, indicador de salida del indicador de salida, contexto de contexto e instrucciones de instrucción.

Procesamiento de datos y ofimática eficiente para escenarios de aplicación ChatGPT https://edu.csdn.net/course/detail/38806

 

 ChatGPT desde lo básico hasta el combate de proyectos https://edu.csdn.net/course/detail/38557

 

 

Supongo que te gusta

Origin blog.csdn.net/m0_37449634/article/details/132048879
Recomendado
Clasificación