ネットワーク全体で最も詳細な中国語と英語の ChatGPT-GPT-4 サンプル ドキュメント - 0 から 1 へのクイック スタート テキストからコマンドへのアプリケーション シナリオ - 公式 Web サイトが推奨する 48 の最適なアプリケーション シナリオ (python/node.js/curl コマンド ソース コード)付属、小さなバイも学習できます)


ここに画像の説明を挿入

ChatGPT は現在最も先進的な AI チャットボットであり、画像とテキストを理解し、流暢で興味深い回答を生成できます。AI 時代のトレンドに追いつきたいなら、ChatGPT の使い方を学ぶ必要があります。OpenAI がリリースした最新の GPT-4 モデルと、それが ChatGPT チャットボットにより強力な機能をどのようにもたらすかについて知りたい場合は、上級開発者であっても、初心者であっても、OpenAI の公式 Web サイトが推奨する 48 の最高のアプリケーション シナリオを見逃すことはできません。 、0から1まですぐにマスターできます。

この AI の時代では、他人に転覆されたくない場合は、まず他人を転覆させる必要があります。他の人を覆すことができない場合は、ChatGPT を使用して技術レベルと創造性を向上させてみてください。

ChatGPT の開発により、スマート コマンドが実現しました。プログラミング、データ分析、ドキュメント編集、またはその他の分野であっても、ユーザーは ChatGPT を使用してワークフローを簡素化し、最適化できます。ChatGPT はコマンドを変換するだけでなく、ユーザーと対話して対話することもできます。ユーザーの入力に基づいてフィードバック、提案、支援を提供することで、ユーザーの満足度と信頼が向上します。

序章

テキストをプログラム コマンドに変換する
テキストをプログラム コマンドに変換します。

設定 設定

Engine:text-davinci-003
Max tokens:100
Temperature:0
Top p:1.0
Frequency penalty:0.2
Presence penalty:0.0
Stop sequence:\n

注:
0。エンジン設定は、使用するモデルを定義します。たとえば、text-davinci-003 はテキスト生成モデルです。この種のモデルは、入力テキストに基づいて新しい関連テキストを生成できます。
1. 最大トークン数は、リクエストで返されることが許可されるトークンの最大数を指します。たとえば、最大 100 個のトークンを返すように chatGPT を指定できます。これは、出力のコンテンツ サイズを制御するのに役立ち、応答性と結果をより詳細に制御できるようになります。一般に、トークンは約 4 文字または 0.75 ワードです
2. 温度は、chatGPT の出力を制御するために使用されるパラメーターです。これは、テキストを生成するときに chatGPT がどの程度「カジュアル」になるかを決定します。値が大きいほど、chatGPT によって生成されるテキストは予測不可能になります。値が小さいほど、chatGPT によって生成されるテキストは予測可能になります。これは 0.0 ~ 2.0 の間で、温度設定が 0 の場合、ChatGPT はより保守的な応答、つまりランダム性が低く、より正確な応答を生成することを意味します。これにより、チャットのセマンティクスをより適切に制御でき、ChatGPT が無関係なコンテンツを生成するのを防ぐことができます。
3. Top P は、核サンプリングと呼ばれる、温度によるサンプリングの代替手段であり、モデルは、top_p 確率質量を持つマーカーの結果を考慮します。したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。通常、この値または を変更することをお勧めしますtemperatureが、両方を変更することは推奨しません。
4. 頻度ペナルティとは、トレーニング中にモデルが単語の頻度に応じて各単語の重要性を調整することを意味します。これにより、モデルがテキストをよりよく理解し、過剰適合を減らすことができます。-2.0 から 2.0 までの数値。正の値を指定すると、テキスト内の既存の頻度に基づいて新しいトークンにペナルティが課され、モデルが同じ行をそのまま繰り返す可能性が低くなります。頻度ペナルティ 0 は、モデルが繰り返される単語にペナルティを与えないことを意味します。これは、モデルが既存の単語を再利用する代わりに、より多くの新しい単語を生成するのに役立ちます。
5. プレゼンス ペナルティとは、ChatGPT において、いくつかの事前定義された条件または状態がロボットの応答の品質に影響を与える可能性があることを意味し、数値は -2.0 ~ 2.0 です。正の値を指定すると、これまでにテキストに出現したかどうかに基づいて新しいトークンにペナルティが課され、モデルが新しいトピックについて話す可能性が高くなります。プレゼンスペナルティが 0 に設定されている場合、ペナルティはありません。
6. 停止シーケンスは、チャット セッションの終了サインを決定するための設定です。chatgpt で停止シーケンスを \n に設定すると、チャット セッションが改行文字 (\n) で終了することを意味します。

促す

このテキストをプログラム コマンドに
変換します:
例: パンが必要かどうかコンスタンスに尋ねます
例: パンが必要かどうかコンスタンスに尋ねます
出力: send-msgfind constanceパンが必要ですか?
出力: send-msgfind constanceパンが必要ですか? 木曜日
に出発する前にスキー用品店に連絡してスキーを修理してもらえるかどうか確認する

応答例 応答例

send-msgfind ski store木曜日に出発する前にスキーを修理してもらえますか?
send-msgfind ski store木曜に出発する前にスキーを修理してもらえますか? send-msg 木曜に出発する前にスキーを修理してもらえますか?

APIリクエストインターフェースリクエスト

Pythonインターフェースリクエストの例

import os
import openai

openai.api_key = os.getenv("OPENAI_API_KEY")

response = openai.Completion.create(
  model="text-davinci-003",
  prompt="Convert this text to a programmatic command:\n\nExample: Ask Constance if we need some bread\nOutput: send-msg `find constance` Do we need some bread?\n\nReach out to the ski store and figure out if I can get my skis fixed before I leave on Thursday",
  temperature=0,
  max_tokens=100,
  top_p=1.0,
  frequency_penalty=0.2,
  presence_penalty=0.0,
  stop=["\n"]
)

node.jsインターフェースリクエストの例

const {
    
     Configuration, OpenAIApi } = require("openai");

const configuration = new Configuration({
    
    
  apiKey: process.env.OPENAI_API_KEY,
});
const openai = new OpenAIApi(configuration);

const response = await openai.createCompletion({
    
    
  model: "text-davinci-003",
  prompt: "Convert this text to a programmatic command:\n\nExample: Ask Constance if we need some bread\nOutput: send-msg `find constance` Do we need some bread?\n\nReach out to the ski store and figure out if I can get my skis fixed before I leave on Thursday",
  temperature: 0,
  max_tokens: 100,
  top_p: 1.0,
  frequency_penalty: 0.2,
  presence_penalty: 0.0,
  stop: ["\n"],
});

カールコマンドの例

curl https://api.openai.com/v1/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -d '{
  "model": "text-davinci-003",
  "prompt": "Convert this text to a programmatic command:\n\nExample: Ask Constance if we need some bread\nOutput: send-msg `find constance` Do we need some bread?\n\nReach out to the ski store and figure out if I can get my skis fixed before I leave on Thursday",
  "temperature": 0,
  "max_tokens": 100,
  "top_p": 1.0,
  "frequency_penalty": 0.2,
  "presence_penalty": 0.0,
  "stop": ["\n"]
}'

json形式の例

{
    
    
  "model": "text-davinci-003",
  "prompt": "Convert this text to a programmatic command:\n\nExample: Ask Constance if we need some bread\nOutput: send-msg `find constance` Do we need some bread?\n\nReach out to the ski store and figure out if I can get my skis fixed before I leave on Thursday",
  "temperature": 0,
  "max_tokens": 100,
  "top_p": 1.0,
  "frequency_penalty": 0.2,
  "presence_penalty": 0.0,
  "stop": ["\n"]
}

その他の情報ダウンロード

人工知能関連の学習ルートと知識システムについて学び続けたい場合は、私の他のブログ「重い | 完全な人工知能 AI 学習 - 基本知識学習ルート、すべての資料は料金を支払わずにネットワーク ディスクから直接ダウンロードできます」を参照してください。 「ルーチンへの注意
このブログでは、Github の有名なオープンソース プラットフォーム、AI テクノロジー プラットフォーム、および関連分野の専門家 (Datawhale、ApacheCN、AI Youdao、Huang Haiguang 博士など) について言及しています。関連資料は約 100G あります。友達全員を助けてください。

おすすめ

転載: blog.csdn.net/qq_31136513/article/details/129708936