chatgpt nouveau didacticiel de l'API du modèle gpt-3.5-turbo

Formulaire : Entrez une question, le modèle générera un résultat, une question et un formulaire de réponse

Fonction : Créer une interface de chat Adresse : POST  https://api.openai.com/v1/chat/completions  (Bêta)
Paramètre de la requête (Corps de la requête) :
modèle : chaîne
Le modèle à utiliser, uniquement gpt-3.5-turbo et gpt -3.5-turbo-0301
Messages à deux valeurs : le tableau doit
être le contenu à transmettre, qui comprend deux champs, rôle et cent, par exemple : "messages"
PowerShell
 : [{"role": " user", "content": "Hello!"}]
temperature: number optionnel, default 1

number between 0 and 2
, plus le nombre est grand, plus la réponse est aléatoire, open, par exemple,
plus le nombre de 1.8 est petit, plus plus fixe la réponse, en mettant l'accent, comme 0.2, il est recommandé de ne pas modifier top_p
en même temps que top_p est similaire à la température, plus le nombre est grand, plus la réponse est aléatoire, plus le nombre ouvert est petit, plus la réponse est fixe Il est recommandé de ne pas modifier n en même temps avec top_p : nombre Facultatif Par défaut 1 Le nombre de résultats générés flux : booléen Facultatif Par défaut faux S'il est défini sur vrai, le résultat est un flux de données. site officiel chatgpt, un caractère est généré et un caractère est renvoyé. Le serveur doit prendre en charge les événements envoyés par le serveur








stop : chaîne ou tableau facultatif par défaut null
jusqu'à 4 séquences, l'API cessera de générer plus  de jetons -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparition dans le texte jusqu'à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. frequency_penaley : nombre facultatif par défaut 0 nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte, ce qui rend le modèle moins susceptible de répéter la même ligne textuellement. logit_bias : mappe la probabilité nulle par défaut facultative d'occurrence du marqueur spécifié lorsque la modification est terminée. Accepte un objet json qui mappe les jetons (spécifiés par les identifiants de jeton) aux valeurs de biais associées comprises entre -100 et 100. Mathématiquement, un biais est ajouté à la logique générée par le modèle avant l'échantillonnage. L'effet exact variera pour chaque modèle, mais des valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner une sélection interdite ou exclusive du jeton associé. user : chaîne facultative Identité unique de l'utilisateur final, qui peut aider openai à détecter les abus











Pour appeler l'interface API officielle, vous devez obtenir la clé API, et obtenir l'adresse : chat.xingtupai.com

Exemple de requête :
curl :

curl https://api.openai.com/v1/chat/completions \
  -H 'Content-Type: application/json' \
  -H 'Authorization: Bearer YOUR_API_KEY' \
  -d '{
  "model": "gpt-3.5-turbo",
  "messages": [{"role": "user", "content": "Hello!"}]
}'


python :
code source de déploiement : https://github.com/openai/openai-python
exemple d'appel :
Python

import os
import openai
openai.api_key = os.getenv("OPENAI_API_KEY")

completion = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[
    {"role": "user", "content": "Hello!"}
  ]
)

print(completion.choices[0].message)


node.js :
code source de déploiement : https://github.com/openai/openai-node
exemple d'appel :
JavaScript

import os
import openai
openai.api_key = os.getenv("OPENAI_API_KEY")

completion = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[
    {"role": "user", "content": "Hello!"}
  ]
)

print(completion.choices[0].message)


Exemples de paramètres :

{
  "model": "gpt-3.5-turbo",
  "messages": [{"role": "user", "content": "Hello!"}]
}


résultat de retour :

{
  "id": "chatcmpl-123",
  "object": "chat.completion",
  "created": 1677652288,
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": "\n\nHello there, how may I assist you today?",
    },
    "finish_reason": "stop"
  }],
  "usage": {
    "prompt_tokens": 9,
    "completion_tokens": 12,
    "total_tokens": 21
  }
}

Résultat d'erreur :

{
 "error": {
  "message": "'doctor' is not one of ['system', 'assistant', 'user'] - 'messages.0.role'",
  "type": "invalid_request_error",
  "param": null,
  "code": null
 }
}

Je suppose que tu aimes

Origine blog.csdn.net/weixin_58881595/article/details/130246941
conseillé
Classement