序文
人工知能の分野では、OpenAI GPT-3.5 Turbo などの自然言語処理モデルが幅広い用途に使用されています。これらのモデルと対話するために公式の Python ライブラリが提供されていますが、リクエスト ライブラリを使用してリクエストをカスタマイズし、応答を処理することを好む人もいます。たとえば、多くのサードパーティ LLM は、chatGPT に似た http リクエスト フォーマットを提供しています。調整後すぐに使用できます。この記事では、Python のリクエスト ライブラリを使用して OpenAI GPT-3.5 Turbo と通信する方法を紹介します。
文章
ステップ 1: API キーを取得する
まずはOpenAI公式サイトに登録し、APIキーを取得する必要があります。このキーは認証に使用され、許可されたユーザーのみが OpenAI のサービスにアクセスできるようにします。
ステップ 2: リクエストを準備する
リクエストを送信する前に、必要な情報を含む HTTP リクエストを作成する必要があります。これには、API エンドポイント URL、リクエスト ヘッダー、リクエスト データなどが含まれます。OpenAI があなたの身元を確認できるように、リクエスト ヘッダーに適切な認証情報が含まれていることを確認してください。
ステップ 3: リクエストを送信する
リクエスト ライブラリを使用して、POST リクエストを OpenAI GPT-3.5 Turbo API エンドポイントに送信します。リクエストのデータ部分には、どのようなタスクを要求しているのか、何を生成したいのかをモデルに伝えるためのヒントやその他のパラメーターが含まれている必要があります。生成されるテキストの長さを制限するには、OpenAI が推奨する max_tokens などの適切なパラメーターを必ず設定してください。
ステップ 4: 応答を処理する
リクエストを送信すると、OpenAI サーバーから応答を受け取ります。response.json() を使用して応答を解析し、結果のテキストを抽出できます。応答の HTTP ステータス コードを必ずチェックして、リクエストが成功したことを確認してください。
サンプルコード
import requests
# 默认地址需要境外访问
url = 'https://api.openai.com/v1/chat/completions'
# 替换为您自己的API密钥
api_key = 'sk-xxxxxxxxxx'
def send_message(message):
headers = {
"Authorization": f"Bearer {api_key}",
"Content-Type": "application/json",
}
data = {
"model": "gpt-3.5-turbo",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": f"{message}"}
]
}
response = requests.post(url, headers=headers, json=data, verify=False)
if response.status_code == 200:
return response.json()["choices"][0]["message"]['content']
else:
print(f"Error: {response.status_code}")
return None
resp = send_message('hello')
print(resp)
この記事の焦点は、リクエスト ライブラリを使用して OpenAI GPT-3.5 Turbo と通信する方法です。
結論は
Python のリクエスト ライブラリを使用して OpenAI GPT-3.5 Turbo と通信することは、リクエストをカスタマイズし、ニーズに基づいてレスポンスを処理する柔軟な方法です。これにより、開発者はより詳細に制御できるようになり、自然言語処理モデルをアプリケーションに適切に統合できるようになります。
この記事では、OpenAI GPT-3.5 Turbo と通信するための基本的な手順を紹介し、リクエスト ライブラリの使用を希望する開発者に有益な情報を提供して、同様のインターフェイス形式を持つ他のサードパーティ プラットフォームをすぐに検証できるようにしたいと考えています。