OpenAI 開発シリーズ (5): Jupyter のローカル環境で OpenAI API 呼び出しを実装する

全文は合計2,000文字以上、読了時間の目安は約10分|乾物も充実、コレクションもオススメ!

この記事の目的: Jupyter のローカル環境で OpenAI API を呼び出す詳細な方法を提供し、OpenAI の公式 Web サイトの構造について具体的に説明します。

画像-20230810162205783

この大規模言語モデル技術の進歩の先駆者として、OpenAI の一連の大規模モデルは、効果の点で常に主導的な地位を維持してきました。それによって立ち上げられたテキストモデル、対話モデル、埋め込みモデル、コーディングモデル、グラフィックモデル、音声モデルなどのさまざまなモデルは、包括的で豊富なモデルエコシステムを構築しています。

さらに、OpenAI の大規模な言語モデルはオンラインで推論して微調整することができるため、ローカルに展開する必要があるオープンソース モデルと比較して、ハードウェア要件、運用の難しさ、メンテナンス コストの面で明らかな利点があります。多くの実際的な開発シナリオでは、OpenAI のオンライン大規模モデルが推奨されるソリューションになっています。

この記事では、OpenAI API をローカルで呼び出すプロセスを実装する方法から始めます。

1.公式サイトの構成

OpenAI 公式 Web サイトは、最も信頼できるヘルプ ドキュメントである必要があります。各種モデルのパラメータの詳しい説明や応用例を掲載しており、オンライン通話やテストモデルのパラメータのページも用意されています。同時に、実際の API 呼び出しに応じて課金を行う必要があるため、API 呼び出しの課金ルールを確認し、アカウント残高を確認し、期限内にリチャージすることも必要です。

OpenAI API公式サイトアドレス

1.1 ドキュメント

画像-20230717164853336

以下に焦点を当てます。

大きなモデルの場合、複数回の対話に対する累積入力テキストの最大数が制限されており、この制限を超えると、以前のテキストが徐々に忘れられてしまいます。[ドキュメント] ページでは、入力の最大テキスト制限を示す、各モデルの MAX TOKENS を明確に理解する必要があります。

画像-20230717165131175

ほとんどのモデルの MAX TOKENS は 4096 トークンです。このタイプのモデルは 4k モデルと呼ばれます。一部のモデルの MAX TOKENS は 16384 トークンです。これは新しく更新されたモデル (6 月 13 日に更新されたモデル) の一種で、サフィックスは 16k です。ロゴ。

大まかな見積もりルールは次のとおりです: 4K トークンは約 8000 ワードに相当します。

1.2 APIリファレンス

このページでは、開発者必携の取扱説明書である各モデルAPIのパラメータ解説を詳しく解説しています。

画像-20230717165528130

1.3 遊び場

プレイグラウンド ページは、Web ページ上のアプリケーションを呼び出す大規模なモデルに相当します。このページでは、さまざまなタイプのモデルを直接選択し、さまざまなパラメーターを選択し、さまざまなプロンプトを入力してモデルの出力結果をテストできます。また、このページでは、 Web ページ上の操作に対応するコードと全体的な操作プロセスは非常に便利であり、初心者がゼロコードで大規模なモデルの機能テストを実行するのにも非常に適しています。

画像-20230717165719091

1.4 請求ルール

OpenAI のオンライン大規模モデルは、個人の API キー オンライン検証を通じて OpenAI オンライン モデルに計算アプリケーションを送信し、返された結果をリアルタイムで取得します。そのため、実際にOpenAIオンライン大規模モデルを呼び出す際には、呼び出されたモデルの種類、呼び出し回数、入出力テキスト数に応じて課金されるため、利用する際には支出額に注意が必要です。それ。特定の請求ルールは、「価格設定」ページで確認できます。

画像-20230717170509137

画像-20230717170258106

このうち、4KモデルとはMAX TOKENS=4096トークンのモデルを意味し、16KモデルとはMAX TOKENS=16384トークンのモデルを意味する。

16K モデルの価格は 4K モデルの 2 倍ですが、実際には、16K モデルは 4K モデルよりも多くの「隠れスペース」容量が必要であり、モデルがより複雑で、通話コストも高くなるためです。 。したがって、超大規模な複数回の対話を行わない場合は、4Kモデルを選択することをお勧めします。

1.5 通話制限

OpenAIは、実際にAPIを呼び出す過程で、コンピューティングリソースの保護のため、1分あたりの最大リクエスト数(RPM:requests-per-minut)と、1分あたりの最大トークン通信量(TPM:トークン)も制限します。モデル API. -毎分)、これらの制限はパーソナル センターの [レート制限] ページで確認できます。

画像-20230717170646665

制限を緩和したい場合は、申請フォームに必要事項を記入して公式に申請し、制限の上限を増やすことができます。

申請アドレス

1.6 アカウント残高

口座残高と現在の利用金額を常に把握しておく必要があります。パーソナル センターの [使用状況] ページで、現在のアカウント残高と過去のアカウントの使用状況を確認できます。

画像-20230717170917465

新しいアカウントが登録されるたびに、システムはデフォルトでナイフ 5 個のクレジットを付与し、使用期間は約 4 か月間保持されます。

商用開発の場合、[請求] –> [使用制限] ページで最大合計月間使用量を設定できます。デフォルトは 120 ドルです。月間 API 使用量が制限を超えると、OpenAI は API キー呼び出しへの応答を停止します。この設定により、API の悪用による料金の超過を効果的に防ぐことができます。

画像-20230717171154796

1

このうちソフトリミットとは、APIの使用量があらかじめ設定した一定の金額を超えた場合にメールでリマインドする仕組みです。

1.7 アカウントのトップアップ

OpenAI アカウントのリチャージ方法は、ChatGPT が PLUS をアップグレードするときのリチャージ方法と似ており、どちらも最初に銀行カードをバインドしてから料金を差し引きます。[請求] –> [支払い方法] ページで、支払いに使用できる銀行カードをバインドするだけです。OpenAIは月々の利用金額に応じて手数料を差し引かせていただきますので、お支払い方法がわからない場合は記事末尾の内容をご覧ください

2

2. Jupyter で OpenAI API をローカルに呼び出す

2.1 環境構成

前の記事ですでに述べたように、最初に環境変数を構成します。この記事の最初の 3 つのセクションを参照してください。

OpenAI開発シリーズ(4):OpenAIのAPI呼び出し方法をマスターする

環境変数を構成した後、コンピューターを再起動する必要があることに注意してください。環境変数が有効になったら、Jupyter を起動して、Jupyter 環境で OpenAI ラージ モデル API を呼び出せるかどうかをテストできます。

国内ユーザーの場合、OpenAIに直接アクセスすることはできず、Jupyterをプロキシ環境で起動する、つまりプロキシ経由でネットワークにアクセスできる必要があります。具体的な設定方法は以下の通りです。

  • ステップ 1: マジックを開始し、グローバル プロキシ モデルを設定する

私自身のマジックを例に挙げると、プロキシ ポートは次のとおりです。

画像-20230717172418370

ほとんどのプロキシはローカル ループバック、つまり 127.0.0.1 によってプロキシされるため、現在のマジック プロキシ アドレスとポートは 127.0.0.1:15732 になります。

  • ステップ 2: Jupyter プロキシを構成する

Jupyter がプロキシ経由でネットワークにアクセスできるようにする最も簡単な方法は、cmd コマンド ラインを使用して jupyter を起動することです。

画像-20230717172758128

次に、コマンド ラインで Jupyter を起動し、各起動前にプロキシ環境設定を入力します。つまり、次の順序で Jupyter を起動します。

画像-20230717172902758

エラーが報告された場合:

画像-20230717173008620

解決:

新しいバージョンの Anaconda は、インストール時に環境変数を自動的に追加しません。環境変数設定ページを開き、システム変数の [パス] をクリックして、[編集] をクリックします。

画像-20230717173511590

次に、2 つの変数 C:\ProgramData\anaconda3\condabin と C:\ProgramData\anaconda3\Scripts を追加します (これら 2 つの変数のアドレスは、Anaconda を自分でインストールする場合のインストール場所である必要があります)。

画像-20230717173636341

もう一度テストしてください:

画像-20230717173836594

  

2.2 通話テスト

Jupyter が正常に起動したら、OpenAI ラージ モデルを正常に呼び出すことができるかどうかをテストできます。テスト コードは次のとおりです。

completions_reponse = openai.Completion.create(
  model="text-davinci-003",
  prompt="this message is a test",
)
print(completions_reponse)

結果は次のようになります: 成功

画像-20230810160159987

3. まとめ

この記事の内容はそれほど多くなく、主に OpenAI の公式 Web サイトの構成の説明と、ローカルの Jupyter 環境で OpenAI のオンライン大規模モデルを呼び出す方法の紹介です。

  • OpenAI API Keyの環境変数が設定されている場合、コンピュータの再起動後に有効になります。
  • 研究開発のプロセスでは、プロセス全体を通して魔法をオンにする必要があります

最後に、この記事を読んでいただきありがとうございます! 何か得をしたと感じたら、ぜひ「いいね!」「ブックマーク」「フォロー」をしてください。これが私が創作を続けるモチベーションです。ご質問やご提案がございましたら、コメント欄にメッセージを残してください。できる限りお答えし、フィードバックを受け付けます。知りたい特定のトピックがございましたら、お知らせください。喜んでそれに関する記事を書きます。ご支援に感謝し、あなたと一緒に成長することを楽しみにしています!

おすすめ

転載: blog.csdn.net/Lvbaby_/article/details/131775615