ChatGPT (GPT3.5) API oficial de OpenAI lanzada oficialmente

        El correo electrónico enviado por la comunidad de OpenAI a las 4 a. m. de hoy presentó el lanzamiento de la API oficial de ChatGPT. Las direcciones oficiales del documento de introducción son " OpenAI API " y " OpenAI API ".

        Los nombres oficiales del modelo API de ChatGPT (GPT3.5) son "gpt-3.5-turbo" y "gpt-3.5-turbo-0301". El precio de la llamada API es 10 veces más barato que el modelo GPT text-davinci-003. La tarifa de llamada es de US$0,002/1000 tokens, equivalente a alrededor de 0,1 yuanes por 4000~5000 palabras. Este recuento de palabras incluye el recuento de palabras de las preguntas y los resultados devueltos.

1 método de llamada API

1.1 Parámetros de llamada

        El método de llamada API oficial de ChatGPT (GPT3.5) es el siguiente, que es básicamente el mismo que el modelo de llamada GPT3, y hay principalmente 7 parámetros para la entrada. Se espera que estos dos modelos se integren esta noche en el subprograma de creación inteligente de robots RdFast y en el programa de escritorio RdChat . Puedes experimentarlo en cualquier momento, así que estad atentos.

  1. modelo: nombre del modelo, gpt-3.5-turbo o gpt-3.5-turbo-0301
  2. mensajes: Preguntas o contenidos a completar, los cuales serán destacados a continuación.
  3. temperatura: controle la aleatoriedad del resultado, 0.0 significa que el resultado es fijo y la aleatoriedad se puede establecer en 0.9.
  4. max_tokens: la cantidad máxima de palabras devueltas (incluidas preguntas y respuestas), generalmente los caracteres chinos ocupan dos tokens. Suponiendo que se establece en 100, si hay 40 caracteres chinos en la pregunta de solicitud, el resultado devuelto incluirá como máximo 10 caracteres chinos. La cantidad máxima de tokens permitidos por la API de ChatGPT es 4096, es decir, la configuración máxima de max_tokens es 4096 menos la cantidad de tokens en cuestión.
  5. top_p: establecerlo en 1.
  6. 6frequency_penalty: establecerlo en 0.
  7. present_penalty: configúrelo en 0.
  8. arroyo.

        Cabe señalar que los parámetros de entrada anteriores agregan flujo, es decir, si se debe usar el flujo de control para la salida.

        Si el valor de flujo es Falso, el resultado devuelto es consistente con la interfaz GPT3 en la Sección 1, y se devuelven todos los resultados de texto, que se pueden leer a través de la respuesta["opciones"][0]["texto"]. Sin embargo, cuanto mayor sea el número de palabras, mayor será el tiempo de espera para volver, el tiempo puede referirse a 4 palabras/segundo cuando se lee el flujo de control.

        Si el valor de steam es True, el resultado devuelto es un generador de Python, que debe iterarse para obtener el resultado, con un promedio de aproximadamente 4 palabras por segundo (134 palabras en 33 segundos, 157 palabras en 39 segundos). El programa de lectura es el siguiente. Se puede ver que el campo final del resultado de la lectura es "<|im_end|>".

1.2 mensajes

        El campo de mensajes consta de dos partes, función y contenido, de la siguiente manera:

  model="gpt-3.5-turbo",
  messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Who won the world series in 2020?"},
        {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."},
        {"role": "user", "content": "Where was it played?"}
    ]

        En el modelo gpt-3.5-turbo, el rol rol incluye tres tipos: sistema sistema, asistente asistente y usuario usuario. El rol del sistema es equivalente a decirle a ChatGPT qué rol debe responder a la pregunta, y el rol específico y el contenido de la pregunta deben especificarse en el contenido. La principal diferencia de gpt-3.5-turbo-0301 es que presta más atención al contenido del problema y no presta especial atención a la parte específica del rol. El modelo gpt-3.5-turbo-0301 es válido hasta el 1 de junio y se seguirán actualizando gpt-3.5-turbo.

        El asistente asistente y el usuario usuario son equivalentes a especificar el rol, y el contenido se puede escribir directamente en la pregunta de interés.

2 Procedimientos de referencia

        Un ejemplo de programa de referencia es el siguiente:

# -*- coding: utf-8 -*-
"""
Created on Wed Dec 21 21:58:59 2022

@author: Administrator
"""

import openai

def openai_reply(content, apikey):
    openai.api_key = apikey
    response = openai.ChatCompletion.create(
    model="gpt-3.5-turbo-0301",#gpt-3.5-turbo-0301
    messages=[
    {"role": "user", "content": content}
    ],
    temperature=0.5,
    max_tokens=1000,
    top_p=1,
    frequency_penalty=0,
    presence_penalty=0,
    )
    # print(response)
    return response.choices[0].message.content


if __name__ == '__main__':
    content = '你是谁?'
    ans = openai_reply(content, '你的APIKEY')
    print(ans)
 

3 efecto de llamada API

Supongo que te gusta

Origin blog.csdn.net/suiyingy/article/details/129293288
Recomendado
Clasificación