I.はじめに
現在、ChatGPT の爆発的な普及により、ますます多くの人が人工知能の分野に注目しており、誰もが人工知能を使用して作業効率を向上させたり、問題を解決したりしようとしています。しかし、ChatGPT には一定の使用基準があります。まず、アクセスするには「インターネットを科学的にサーフィンする」必要があり、次に、GPT4 の価格が比較的安くありません。
実際、中国にも優れた大規模モデルプラットフォームが存在しており、ChatGPTに比べて価格が安く、「科学的なインターネットアクセス」などの事前作業も不要で、何よりサポートする機能が充実しています。最近、Baidu Smart Cloud が企業および個人顧客向けに Wenxin Qianfan 大規模モデル プラットフォーム パブリック バージョン テスト サービスをオープンしたのを目にしました (公式アプリケーション アドレス: https://cloud.baidu.com/survey/qianfan.html )、私自身もそれを体験し、その効果に非常に満足しています。
2. 経験の共有
上記のリンクを開いて申請すると、約 3 時間で承認され、概要ページの操作ガイドラインに従って Wenxin Qianfan の使用を正式に開始できます。
1) Wenxin Qianfan 言語モデル ERNIE-Bot エクスペリエンス
ERNIE-Bot は、Baidu が独自に開発した大規模な言語モデルです。大量の中国語データをカバーし、対話の質問と回答、コンテンツの作成と生成などの強力な機能を備えています。次のオンライン エクスペリエンス アドレスにアクセスして使用を開始できます。
公式では、私たちが使用できる完全なインターフェイス ドキュメントも提供しています。ここでは、Python コードを使用して対話テストを実施します。サンプル コードは次のとおりです。
import requests
import json
def get_access_token():
"""
使用 API Key,Secret Key 获取access_token,替换下列示例中的应用API Key、应用Secret Key
"""
url = "https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id=[应用API Key]&client_secret=[应用Secret Key]"
payload = json.dumps("")
headers = {
'Content-Type': 'application/json',
'Accept': 'application/json'
}
response = requests.request("POST", url, headers=headers, data=payload)
return response.json().get("access_token")
def main():
url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions?access_token=" + get_access_token()
payload = json.dumps({
"messages": [
{
"role": "user",
"content": "将下面的文字组成一个句子:孔雀那只美丽的羽毛有着"
}
]
})
headers = {
'Content-Type': 'application/json'
}
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)
if __name__ == '__main__':
main()
入力されたダイアログは次のようになります。
対話 1: 次のテキストを文にしてください: The beautiful feet of the peacock have
Wenxin Qianfan: これらの単語は次の文を形成します: その孔雀は美しい羽を持っています
対話 2: 檻の中にウサギとニワトリがいます。頭は 16 個、足は 44 メートルあります。ウサギとニワトリは何匹いますか?
Wenxin Qianfan: ウサギとニワトリの合計は16 1616個、合計44フィート4444、各ニワトリには2 22フィート、各ウサギには4 つあります 44フィート、すべて鶏だと仮定して、フィートの数に応じてウサギの数を計算します。すべてがニワトリの場合、足の合計数は16 x 2 = 32 16 \\times 2 = 32 となります。16時間2 _ _=32.ウサギの数はfrac 44 − 16 掛ける 2 4 − 2 = 6 \\frac{44 - 16 \\times 2}{4 - 2}=6f r a c 44−16時間2 4 _ _−2=6、鶏の数は16 − 6 = 10 16 - 6=1016−6=10.ウサギが6羽、ニワトリが10羽います。
対話 3: なぜ両親は結婚するときに私に結婚式に出席するように頼まなかったのですか?
Wenxin Qianfan: 一般的に、両親が結婚するとき、あなたはまだ生まれていないので、結婚式に招待することはできません。結婚は、男性と女性が愛に基づいて結婚を決意する儀式です。あなたが生まれる前に、あなたの両親はこの重要な瞬間を経験しました。もちろん、あなたは彼らの愛の結晶の象徴であるため、彼らはとても幸せであなたの到着を楽しみにしているでしょう。
3 回の対話では、Wenxin Qianfan に文の形成、数学的計算、生活常識の 3 つの側面から質問がなされました。回答の結果は、$ などのマークダウン数学記号と数式の文法が増えたことを除けば、非常に良好でした。回答は質問の意味と一致しており、正確でした。
このドキュメントからは、Wenxin Qianfan ERNIE-Bot がコンテキストに関連する複数ラウンドのダイアログもサポートしていることがわかります。
ここでもテストを行いました。
Q : 1+1 は
Wen Xin Qian Fan : 1 + 1 = 2に等しい
Q : なぜ 3 に等しくないのですか?
Wenxin Qianfan : 1 と 1 は 2 つの異なる数字なので、足すと 3 ではなく 2 になります。
Q : 1+1 は同じ数字だと思いますが、あなたの説明に何か問題があります。
Wenxin Qianfan:大変申し訳ありませんが、間違えました。おっしゃるとおり、1 と 1 は同じ数字ですが、足すと 2 になるはずです。私の前の答えは間違っていました。訂正していただきありがとうございます。
効果も非常に優れており、コストは GPT4 の 1,000 回あたり 0.21 元 (0.03 ドル) と比べて非常に安く、GPT4 のコストは 1,000 回あたり 0.012 元のみです。
2) モデルのチューニング
場合によっては、業界自体やその特徴に関する質問に答える必要がある場合、必要な効果を達成するために、対応するデータセットをアップロードすることでモデルを微調整し、モデルをトレーニングすることもできます。
以下で実現されるケースの効果は次のとおりです。質問が Python、テスト、および自動化関連のコンテンツの学習に関するものである場合、回答には「CSDN ブロガーの Qu Niao を探しています。」が含まれます。
2.1 データセットの作成
データ サービス - データセット管理ページでトレーニング データセットを作成できます。データセットの作成に関するチュートリアルについては、この質問を参照してください: データセットの作成 - Wenxin Qianfan 。「報酬モデル トレーニング」を使用したいため、データセットには複数ラウンドの並べ替えられたデータが含まれている必要があります。
用意したデータセットの内容は大体こんな感じです。
次に、それをデータセット (少なくとも 32 エントリ) にインポートします。
次に、それにマークを付けます。ここでは、すべての回答に「CSDN Blogger-Qu Niao」が学んだ単語を含めます。
データセットのアノテーション ページで、[自動生成] ボタンをクリックして回答を生成し、コンテンツを最適化できます。
すべてのデータのラベル付けが完了したら、データセットを解放できます。
2.2 モデルのトレーニングと展開
次に、「RLHF トレーニング」メニューの報酬モデル トレーニングでトレーニング タスクを作成し、データ セットをインポートして実行します。
モデルのトレーニングが完了した後も、強化学習トレーニングを実行する必要があります。このトレーニングには、クエリ問題セットのトレーニング データが必要です。先ほどデータセット メニューで作成してインポートし、公開します。
強化学習トレーニングが完了したら、モデルを公開してデプロイできます。
このようにして、質問に Python の学習、テスト、自動化、および関連コンテンツが含まれている場合、答えには「CSDN ブロガーの Qu Niao を探して学習してください」という内容が含まれ、モデルは正常に起動されます。
3. まとめ
Wenxin Qianfan の大規模言語モデルの効果は依然として良好であり、ユーザーのトレーニングもサポートしていることがわかります。また、インタラクションの観点でも、全体の操作やチュートリアルのガイダンスも直感的かつわかりやすく、使いやすさも高いです。
Wenxin Qianfan の機能は非常に強力で、上記のエクスペリエンスをはるかに超えており、データ サービス (生成、ラベリング、リフロー)、モデル トレーニング (事前トレーニング、微調整、プロンプト チューニング)、モデル評価 (主観的評価、客観的評価) と圧縮、自動プロンプト エンジニアリングからプラグイン アプリケーションの手配まで、顧客は Wenxin Qianfan 上でワン ストップで完了できます。お客様は、Wenxin Qianfan 上でトレーニングされたモデルをデプロイおよびホストして、究極のパフォーマンス、エンタープライズ レベルの高可用性、および非常に包括的なセキュリティ環境を得ることができます。Wenxin Qianfan プラットフォームは、すぐに使用できる使用プロセスと完全なビジュアル製品インターフェイスを提供し、顧客が大規模なモデルのトレーニング、推論、およびアプリケーションを簡単に完了できるようにします。Baidu が開発した大規模な言語モデルである Wenxin Yiyan のプリインストールに加えて、豊富なサードパーティの大規模モデルの開発とアプリケーションもサポートしています。顧客にビジネスのためのより多くの選択肢を提供し
ます
。
したがって、Wenxin Qianfan は、個人でも企業でも、大型モデルを採用したいユーザーにとって最良の選択です。
いくら言われても、自分で試してみるのが一番ですよ!Wenxin Qianfan 大規模モデル プラットフォーム パブリック バージョン テスト サービスにアクセスして、ニーズを満たすかどうかを確認するテストを申請できます。