人工知能の原理の概要 - ChatGPT の背後にある物語

みなさんこんにちは、ビッタオです。2023 年に最もホットなものがあるとすれば、それは間違いなく ChatGPT が主導する AI の波です。今年は、平日のさまざまなメディアでも、仕事で接するプロジェクトでも、生活の中で誰もが議論する話題の話題でも、AI は切っても切れない関係にあります。実際、インターネット業界では、ディープラーニングの出現以来、ディープラーニングは非常に人気があります。しかし、収益化能力の点で最も広く使われているAIはレコメンドアルゴリズムであるため、一般の人にとってAIという言葉は少し退屈でもあります。しかし、ChatGPT は 2022 年 11 月に誕生し、わずか 2 か月で瞬く間にその輪を突破し、月間アクティブ ユーザー数は 1 億人に達し、世界トップのプロダクトになりました。これは AI テクノロジーの特異点であり、AI はすぐにさらに多くの仕事を置き換えることができるだろうと言う人もいますが、AI は常に決まり文句を話し、単なるより賢いチャット ロボットになるだろうと言う人もいます。いずれにせよ、人工知能が次の技術革命の始まりであることは否定できません。AIは人間を排除するのではなく、AIはAIを使えない人間を排除するだけだ。

1. 人工知能の歴史

AI が世間の注目を集めるようになってから長い時間が経ちましたが、関連する理論は前世紀にすでに形成されてきました。

  • 1940 年、サイバネティクスは、制御システムの構造、限界、開発を研究するために使用される、制御システムを探索する学際的な研究について説明しました。これは、人間、動物、機械がどのように相互に制御し、通信するかを科学的に研究するものです。
  • 1943 年、アメリカの神経科学者マカロックとピッツはニューラル ネットワークを提案し、MP モデルと呼ばれるモデルを作成しました。
  • The Imitation Game1950 年、コンピューター科学、神経科学、数学の発展に伴い、チューリングは時代を超えてチューリング テストとしても知られる非常に哲学的なテストを提案した論文を発表しました。一般的な考え方は、人間と機械の間でチャットする過程で、相手が機械であることが判明しない場合、それをチューリング テストに合格するといいます。
  • 1956 年、マービン スカイ、ジョン マッカーシー、クロード シャノン (情報理論の創始者) はダートマス会議という会議を開催しました。人が人と同じように考えることができるかどうかが最大の争点となり、AIという言葉も登場した。
  • 1966 年の MIT のチャット ロボット Eliza の以前のシステムは、ルールに基づいたパターン マッチング (PatternMatching) に基づいていました。
  • 1997 年、IBM ディープ ブルーがチェスのチャンピオンを破りました。トロント大学のシントンはバックプロパゲーション アルゴリズム BP を人工知能に導入しました;ニューヨーク大学のヤン リクンは畳み込みニューラル ネットワーク CNN で有名な貢献です;モントリオール大学のベンジオは (ニューラル確率言語モデル、対立ネットワークの生成)。
  • 2010 年、機械学習の分野であるArtificial Neural Networks人工ニューラル ネットワークが輝き始めました。
    ここに画像の説明を挿入

2. 機械学習

機械学習の一般的なタスクは、トレーニング アルゴリズムを通じてデータの背後にある法則を自動的に発見し、モデルを継続的に改善して、予測を行うことです。機械学習には多くのアルゴリズムがありますが、その中で最も古典的なアルゴリズムは次のとおりです梯度下降算法これは、分類と回帰の問題に対処するのに役立ちます。この式の線形フィッティングによりy=wx+b、結果は正しい値に近づきます。

2.1 予測機能

因果サンプル点のセットがあり、それぞれが因果変数のセットを表すと仮定します。たとえば、家の価格や面積、人の身長やペースなどです。常識的には、それらの分布は正比例することがわかります。まず、勾配降下法アルゴリズムは、原点を通る直線である小さなターゲット予測関数を決定しますy = wx私たちのタスクは、このマシンがこれらのデータに適合し、直線のパラメーター w の計算に役立つようにアルゴリズムを設計することです。
ここに画像の説明を挿入
簡単な方法は、原点を通る直線をランダムに選択し、すべてのサンプル点とその偏差を計算することです。次に、誤差の大きさに応じて直線 w の傾きを調整します
。パラメータを調整することで、損失関数が小さいほど、予測の精度が高くなります。この場合は、y = wxいわゆる予測関数です。
ここに画像の説明を挿入

2.2 コスト関数

誤差を見つけるプロセスは、コスト関数を計算することです。データの偏りの度合い、つまり誤差を定量化する場合、最も一般的なのは平均二乗誤差(誤差の二乗和の平均)です。たとえば、誤差の値は e です。誤差を求める係数は二乗和の公式なので、e の関数イメージは下図の右側に表示されます。e の関数が最低点にある場合、左図の誤差が小さくなり、フィッティングがより正確になることがわかります。
ここに画像の説明を挿入

2.3 勾配の計算

機械学習の目標は、トレーニング データの分布に最も近い直線を当てはめること、つまり、コスト関数の最低点に対応するエラー コストを最小化するパラメーターを見つけることです。この最低点を見つけるプロセスは ** 梯度下降** と呼ばれます。
ここに画像の説明を挿入
勾配降下法アルゴリズムを使用してこのパラメーターをトレーニングすることは、人間の学習および認知プロセスと非常によく似ています。ピアジェの認知発達理論、いわゆる同化と適応は、機械学習のプロセスとまったく同じです。

3. ディープラーニング

AIのアルゴリズムを人間の脳に似た操作方法で実装すべきかどうかについては、初期には多くの議論がありました。そして、ディープラーニングが登場する前、ほとんどのコンピュータ科学者はパターンマッチングと同様の研究方向に専念していました。さて、この方法で機械を人間と同じように知能化するのは、もちろん非常に難しいようです。しかし、現在の視点で当時の人々を見ることはできません。当時はデータや計算能力が不足していたので、当然のことながら、人間に似たものを使用するという考えを否定する一連の理論が存在しました。それを達成するための脳。
コンピューターはどのようにして人間の脳と同じ原理で動作するのでしょうか? この問題を解決するには、依然として従来のアルゴリズムを使用する必要があります。これは間接的に当時のAIの停滞にもつながりました。この方向を研究した博士にとって、現実は残酷です。だからこそ「人間の努力も大事だけど、方向性次第」という言葉があるのです。
1943 年に神経科学者が人間の脳の動作原理を調査したところ、人間の脳では 100 億個以上のニューロンがネットワークを介して接続され、情報を判断して伝達しています。
ここに画像の説明を挿入
各ニューロンには複数の入力と 1 つの出力があります。複数のニューロンを介して信号を取得し、信号を総合的に処理して、必要に応じて下流に信号を出力することができます。この出力には 0 または 1 の 2 つの信号しかなく、コンピューターとよく似ています。そこで彼らは MP モデルと呼ばれるモデルを提案しました。
人工ニューラルネットワークは、動物のニューラルネットワークの行動特性を模倣し、分散並列情報処理を行うアルゴリズム数学モデルです。ディープラーニングは、データに対して表現学習を実行するためのフレームワークとして人工ニューラル ネットワークを使用するアルゴリズムです。
ここに画像の説明を挿入

3.1 ニューラルネットワーク

下図に示すように、円はニューロンであり、これらの円がニューラル ネットワークを形成します。ニューラル ネットワークに十分なデータを与え、ニューラル ネットワークがうまく機能しているかどうかをニューラル ネットワークに伝え、ニューラル ネットワークのトレーニングを続けると、ニューラル ネットワークはますます良くなり、画像の認識などの複雑なタスクを完了できるようになります。
ここに画像の説明を挿入
実際、ニューロンの計算は足し算と掛け算の繰り返しですが、数が多いので非常に複雑になります。ニューロンには複数の入力と 1 つの出力しかありませんが、複数のニューロンをアクティブにすることができます。たとえば、次の図はシグモイド活性化関数の 1 つであり、その値の範囲は (0, 1) であることがわかります。
ここに画像の説明を挿入
Xかどうかを判断するだけなら1層で十分ですが、実際には他人の音声や画像認識を理解する必要があります。したがって、人々はニューロンの複数の層を研究します。図に示すように 1 つの入力があり、入力端子は最初の隠れ層の各ニューロンに接続されます。最初の隠れ層がデータを出力した後、2 番目の隠れ層に出力することを選択し、2 番目の隠れ層の出力を選択します。層の 3 番目の隠れ層に入ります。これを多層ニューラルネットワークと呼びます。各 2 つの層の間には多数のパラメータがあり、最終的な誤差関数が最小になるように多数のパラメータを最適に調整します。
ここに画像の説明を挿入
ニューロンによって実行される操作は複雑ではありませんが、シーンが複雑になると、その規模は非常に大きくなります。たとえば、5*5 のピクチャには、各レイヤーに 25 個のニューロン、各レイヤーに 625 個のパラメーター、3 つのレイヤーで 2,000 以上のパラメーターがあります。カラー画像の場合、認識がより複雑になり、計算が非常に遅くなります。これは、人工知能が過去数回過小評価され、計算能力もアルゴリズムも追いつかない理由でもあります。その後、BP アルゴリズムとバックプロパゲーションが登場し、最後の層を最初に調整できるようになりました。最後の層が調整された後、前方に調整されるため、このアルゴリズムの複雑さは前のアルゴリズムよりも低くなります。BP アルゴリズムは主に、ニューラル ネットワークの複数の層間の情報伝達のプロセスにおけるエラー損失とエラー計算を解決し、人工知能の第 3 の波をリードします。

3.2 CNN

ここでは、ニューラル ネットワーク アルゴリズムのより古典的なアルゴリズムである CNN 畳み込みニューラル ネットワークを例として取り上げます。このプロセスは動物の脳の認識と似ており、脳にイメージが反映されると、点から線、物体へと進み、最終的にそれが何であるかを認識します。コンピュータでも同様で、画素点・エッジ方向・輪郭・細部・判断による画像認識を実現しています。
ここに画像の説明を挿入
たとえば、絵がそのような文字であるかどうかを識別したい場合X、その絵はコンピュータにとって 2 次元配列であり、たとえば黒が 1、白が 0 です。以下の図に示すように、
ここに画像の説明を挿入
コンピューターに与えられた後、一連のトレーニング プロセスを使用して、X かどうかを判断するための多数のパラメーターを見つけることができます。損失が最小の関数、つまりトレーニングが成功した関数を見つけます。以降、この一連のパラメータを使用して、画像が X かどうかを判断できるようになります。
具体的には、コンボリューションカーネルを使って画像内の特徴を抽出してコンボリューション演算を行うことができます(例えば、コンボリューションカーネルは斜めの縦線です(これはX画像の特徴の1つであると考えます))。
ここに画像の説明を挿入
コンボリューション (斜めの垂直線) カーネルが画像に適用されて演算が実行され、演算の結果が画像範囲の中央に配置されます。その組み合わせが特徴マップです。計算された特徴が大きいほど、この特徴をより詳細に表現できます。
ここに画像の説明を挿入
計算量が多すぎるため、コンボリューションカーネルを使用して1領域ずつスキャンします。対応する各数値を乗算し、合計を加算します。地域の数値的特徴が抽出されます。さらにデータをプールし、その領域内の最大値を取り、特徴データ量を集中・平坦化します。完全なニューラル ネットワークを入力します。これには畳み込み演算が含まれるため、畳み込みニューラル ネットワークとも呼ばれます。畳み込みカーネルの畳み込み層のサイズ、ペース、数はすべて事前に調整できます。機械が出力した値は、目標結果の事前設定値と比較されます。期待に応えられれば成功です。期待を満たさない場合は、各リンクのパラメータ (BP) を逆に調整する一連の計算が実行され、再度計算され、期待を満たすまで繰り返されます。これが機械学習の原理です。コンボリューション -> プーリング -> アクティベーション。
ここに画像の説明を挿入
畳み込み後の特徴データを見ると、数値が 1 に近いほど畳み込みカーネルの特性を満たしていることがわかります。
ここに画像の説明を挿入
コンボリューション カーネルは最初は人為的に設定される可能性がありますが、後で独自のデータに従ってコンボリューション カーネルを逆に調整します。トレーニング方法と同様に、パラメータを調整するために、トレーニング プロセス中に最適なコンボリューション カーネルが見つかります。コンボリューションカーネルがいくつかあり、特徴マップ(3次元)がいくつかあり、これらの特徴マップを一緒に動かすと3次元の図形になります。
ここに画像の説明を挿入
科学者の設計は驚くべきもので、人間の思考プロセスをほぼ完璧にシミュレートしています。
人工知能に大量のデータを与えると、人工知能はメソッドを通じてコン​​ボリューションカーネルとパラメータを調整し、最終的にそれぞれの異なるオブジェクトが何であるかを区別できるようになります。ただし、コンボリューション カーネルとこれらのパラメーターがどのように設計されているかはわかりません。

3.3 モデル = ブラックボックス

ニューラル ネットワークを継続的にトレーニングすることで、認識エラーを小さくできることがわかりました。インテリジェントなモデルを実現するために、いくつかの実際的な作業を行うために使用されます。モデルは私たちによってトレーニングされますが、実際には、モデルは毎回具体的に認識されます。それがどのように機能するのかはわかりませんが、私たちにとってはまだブラックボックスです。ニュートンがリンゴが地面に落ちた理由を説明しなかったように、重力の数理モデルを確立し、それを手法によって定量的に表現しましたが、その理由については未だに人間の言葉で表現することは困難です。人工知能によって訓練されたモデルについても同様で、私たちが目にする特徴は、特徴の数や特徴の内容など、機械が使用する特徴とは実際には異なります。私たちは物体を 4 つの特徴で判断すると考えますが、コンピューターは 10 の特徴を使用する可能性があります。内容についても同様で、私たち人間の脳の内容とコンピュータの0と1は同等にすることが困難です。ニューラル ネットワークは自己調整および自己最適化トレーニングを行うため、トレーニングの最後にどのように行われたかを知るのは難しいことを知っておく必要があります。私たちが子供に猫と犬の違いを教えるのと同じように、たくさんの猫と犬を見せれば、子供は最終的に違いを認識するでしょう。しかし、子供たちが具体的にどのように識別されるのかはわかりますが、実際に説明するのは困難です。AIによって訓練されたモデルがブラックボックスであると誰もが言うのはこのためです。

3.4 グラフィックス カード = 計算能力

前述したように、ニューラル ネットワークの研究は 1960 年代に一定の基盤を持っていました。しかし、それが開発されなかった理由は、コンピューティング能力とデータという 2 つのものが不足しているためです。ニューラル ネットワーク内の各ニューロンはそれほど細かく計算する必要はありませんが、大量の同時計算が必要になります。わらを使わずにレンガを作ります。計算は全て足し算と掛け算なので複雑ではありませんが、特に計算量が複雑です。たとえば、画像は 800 600 3 (ピクセル) = 144000 ピクセルです。3 層コンボリューション カーネル (RGB が 3 であるため) をコンボリューションに使用すると、約 1,300 万回の乗算 + 1,200 万回の加算が必要になります。これは当時のCPUには無能でしたし、今のCPUでも無理です。これには GPU の腕が問われますが、GPU はグラフィックスの計算に使用されることがわかっています。たとえば、4K ビデオを再生するには、1 秒あたり 30 フレームと仮定すると、最小値は 1,000 万ピクセルです。CPU は 64 コアと 128 コアをサポートし、GPU は数万コアを搭載できます。ピクセルの計算は非常に簡単ですが、GPU などの同時操作が多数あるデバイスに適しています。下の写真は非常に鮮明な例です。CPU は高精度のスプレーガンのようなもので、どこに噴射するかを指示します。GPU の同時
ここに画像の説明を挿入
実行性が高いため、グラフィックス全体を瞬時にレンダリングできます。
ここに画像の説明を挿入
これが、私たちが頻繁に使用する理由です。 AI 用のグラフィック カードを購入する必要があると聞きます。トレーニング プロセス中にこのような同時操作 (マイニングを含む) が多数必要になるからです。
現時点では、AI トレーニングは基本的に Nvidia グラフィックス カードによって独占されています。これは、Lao Huang のレイアウトが非常に初期のものであるためです。2006 年には Nvidia が CUDA を発表し、GPU をプログラム可能にすることに成功しました。このように、従来は3D処理グラフィックスに特化したグラフィックスカードをコンピューティングプログラミングに利用するには多数のトップエンジニアが必要でしたが、現在ではCUDAライブラリベースのみで実現可能です。Nvidia は、グラフィックス カードの境界を、ゲームや 3D 画像処理からアクセラレーテッド コンピューティングの分野全体にまで拡大しました。航空宇宙、バイオ医薬品、天気予報、エネルギー探査など。12 年後にディープラーニングが非常に成熟すると、Nvidia のこのプラットフォームを使用するのが自然になります。その結果、AI トレーニングに関しては、グラフィック カードを購入するのと同じことになり、グラフィック カードを購入するのは Nvidia です。

4. ChatGPTの原理

ChatGPT は、私たちが普段使用している Siri や Xiaoai とはまったく異なります。前者とチャットするときは、人工的な精神薄弱としてそれを使用しますが、ChatGPT と会話する過程で、いくつかの実際的な問題を実際に解決できます。たとえば、未知の分野の重要な技術点を分析したり、バグを見つけるためのアルゴリズムの質問を作成したりできます。では、なぜ ChatGPT はこれほどスマートになっているのか、そしてその背後でどのようなテクノロジが使用されているのかについて、以下で一緒に見ていきましょう。

4.1 LLM

言語モデルは、統計および機械学習手法に基づく自然言語処理技術であり、特定のシーケンス (通常は単語または文字のシーケンス) の確率分布を評価および予測するために使用されます。言語モデルの主な用途は、テキスト生成、機械翻訳、音声認識などのタスクです。近年、ニューラル ネットワーク アーキテクチャの言語モデル パラメータは数千億に達しており、従来の言語モデルとの違いを示すために、人々はこれを大規模言語モデル (LLM) と呼ぶことに慣れています。

機械学習では、テキストの処理に一般的にリカレント ニューラル ネットワーク (RNN) が使用されますが、単語ごとに読み取る必要があり、同時に大量のテキストを処理する方法はありません。また、文は長すぎてもいけません。そうしないと、学習後に忘れてしまいます。
2017 年まで、Google は Transformer と呼ばれる新しい学習フレームワークを提案する論文を発表していました。彼は、直列と並列の違いのように、機械に同時に大量の単語を学習させることができます。現在、多くの NLP モデルは Transformer に基づいています。Google BERT の T と ChatGPT の T は両方ともこの Transformer を指します。
ここに画像の説明を挿入
GPT チームは、Transformer に基づいて、新しい言語モデルである Generative Pre-trained Transformer (GPT) を紹介する論文を 2018 年に発表しました。大規模言語モデル (LLM) は、テキスト内で以前に使用された単語に基づいて単語の可能性を予測することにより、人間のようなテキストを生成します。
以前の言語学習モデルは基本的に人間の監督を必要とするか、人為的にいくつかのラベルを設定する必要がありました。ただし、GPT は基本的にあまり必要なく、大量のデータを入れておくだけで、しばらくすると学習できます。このような大規模な言語モデルは主にアルゴリズムとパラメータの量に依存しており、同じデータを誰よりも早く学習でき、パラメータの量が多いため計算量も多く、はっきり言って無駄です。GPT3 以降、人工フィードバック強化学習が追加され、彼の各単語は前のテキストの関連性と文脈に基づいて計算されます。

4.2 生成プロセス

ChatGPT の中核は LLM Large Language Model という大規模言語モデルであることがわかっています。Oracle モデルは、人間の言語を理解して生成するために大量のテキスト データでトレーニングされるニューラル ネットワーク ベースのモデルです。このモデルは、トレーニング データを使用して言語内の単語間の統計パターンと関係を学習し、この知識を使用して後続の単語を一度に 1 単語ずつ予測します。GPT 3.5 の最大のモデルには、96 層のニューラル ネットワークにまたがる 1,750 億個のパラメーターがあり、これまでに構築された最大の深層学習モデルの 1 つとなっています。
ここに画像の説明を挿入
ChatGPT のモデルの入力と出力は、単語のデジタル表現であるトークンによって編成されます。より正確には、単語の一部です。実際、文内の各単語のコンテキストに基づいて、次の単語が出力に適しているかどうかが判断されます。
ここに画像の説明を挿入
数字を使用するとより効率的に処理できるため、トークンを表すには単語の代わりに数字を使用します。GPT-3.5 は大量のインターネット データに基づいてトレーニングされており、元のデータ セットには 5,000 億のトークンが含まれています。つまり、モデルは数千億の単語でトレーニングされました。
ここに画像の説明を挿入
このモデルは、入力トークンのシーケンスが与えられた場合に次のトークンを予測するようにトレーニングされます。構文的に正しく、トレーニングされたインターネット データと意味的に類似した構造化テキストを生成できます。
ここに画像の説明を挿入

4.3 トレーニングプロセス

上記のプロセスの後、ChatGPT はすでに文章の回答を自律的に整理することができます。しかし、適切なガイダンスがなければ、モデルは非現実的または否定的な出力を生成する可能性もあります。
ここに画像の説明を挿入
モデルをより安全にし、チャットボット形式で質問および回答できるようにするため。さらに微調整を行った後、このモデルは現在 ChatGPT で使用されているバージョンになりました。ファインチューニングとは、人間の価値観に合致しないモデルを制御可能なChatGPTに変換することです。モデルを微調整するこのプロセスは、ヒューマン フィードバックによる強化トレーニング (RLHF) と呼ばれます。
ここに画像の説明を挿入
OpenAI は、モデル上で RLHF をどのように実行しているかについて説明しました。RLHF を使用して GPT 3.5 を微調整することは、料理をより美味しくするためにシェフのスキルを向上させるようなものです。
当初、シェフはレシピと調理技術の大規模なデータセットに基づいてトレーニングを受けていました。しかし、シェフが顧客のカスタムリクエストに応じてその料理を作る方法を知らない場合もあります。この問題を解決するために、実際のユーザーからのフィードバックを収集して新しいデータセットを作成します。最初のステップは、比較データセットを作成することです。そこでは、シェフに与えられた要件に基づいて複数の料理を準備してもらい、次に人々に味と見た目に基づいて料理をランク付けしてもらいます。これは、シェフが顧客が好む料理を理解するのに役立ちます。
次のステップは報酬モデリングです。シェフはこのフィードバックを使用して、顧客の好みを理解するためのガイドのような役割をする報酬モデルを作成します。報酬が高いほど、料理はより良くなります。次に、PPO (近接ポリシー最適化) を使用してモデルをトレーニングします。このアナロジーでは、シェフは報酬モデルに従いながら料理を作る練習をします。彼らはスキルを向上させるために「近接戦略最適化」と呼ばれる手法を使用します。これは、シェフが現在の料理と少し異なるバージョンを比較し、報酬モデルに基づいてどちらが優れているかを学習するようなものです。
このプロセスは数回繰り返され、シェフは最新の顧客からのフィードバックに基づいてスキルを磨きます。回数を重ねるごとに、シェフは顧客の好みに合わせた料理を作るのが上手になっていきます。別の観点から見ると、GPT-3.5 は人々のフィードバックを収集し、好みに基づいて報酬モデルを作成し、PPO を使用してモデルのパフォーマンスを反復的に改善することで RLHF を微調整します。これにより、GPT-3.5 は特定のユーザー要求に対してより適切な応答を生成できるようになります。

4.4 プロンプト

GPT トレーナーが教えてくれたら、ChatGPT を使用できるようになります。ただし、大規模言語モデルに基づく GPT パラメーターは複雑すぎるため、ニーズを正確に表現することも非常に重要です。つまり、AIとより良い対話をしたいのであれば、プロンプトの「言語」が必要なのです。現在、インターネット上には、Prompt を使用して AI とより効率的に通信する方法を説明するチュートリアルがたくさんあります。
ここに画像の説明を挿入
次の図は Prompt の具体的なロジックです。実際、記述が正確であればあるほど、ChatGPT はより正確な情報を提供します。
ここに画像の説明を挿入
概念的には、Prompt は ChatGPT モデルに入力を与えて出力を返すという単純なものです。実際には、状況はさらに複雑です。まず、ChatGPT はチャットダイアログのコンテキストを理解します。これは、新しいプロンプトが入力されるたびに、ChatGPT UI がダイアログ全体をモデルにフィードすることによって行われます。
ここに画像の説明を挿入
これはセッション プロンプト インジェクションと呼ばれ、これが ChatGPT がコンテキストを認識する方法です。

第 2 に、ChatGPT には暗黙的なプロンプト コンテンツが含まれています。これは、モデルが会話トーンを使用するようにガイドするためにユーザー プロンプトの前後に挿入される命令です。これらのプロンプトはユーザーには表示されません。たとえば、入力の口調や言語を事前に分析します。
ここに画像の説明を挿入
3 番目に、特定の種類の安全でないコンテンツを警告またはブロックするために、プロンプトがモデレーション API に渡されます。プロンプトはモデレーション API に渡され、特定の種類の安全でないコンテンツを警告またはブロックします。注: プロンプトが十分強力であれば、実際に特別なコンテンツを出力させることができます。
ここに画像の説明を挿入
生成された結果は、ユーザーに返される前にモデレーション API に渡されることもあります。ChatGPT
ここに画像の説明を挿入
で使用されるモデルの作成には多くのエンジニアリングが必要であり、その背後にあるテクノロジーは常に進化しており、新しい可能性への扉が開かれ、コミュニケーション方法が再構築されています。 . . ChatGPT はソフトウェア開発者の作業方法に革命をもたらし、日常業務を強化し、効率を向上させる方法を示しています。遅れをとらないようにするには、ChatGPT の力を活用し、この急速に変化するソフトウェア開発の世界で先を行く方法を理解する必要があります。

V. まとめ

歴史上、いくつかの産業革命が行われてきましたが、それぞれの産業革命は科学の進歩と根本技術の開発に基づいています。たとえば、第一次産業革命、18 世紀のニュートン古典力学と熱力学には画期的な進歩がありました。ワットは蒸気機関を改良し、人類を蒸気時代に導き、英国を日の沈まない帝国にしました。19 世紀末から 20 世紀初頭にかけて、ファラデーが電磁誘導現象を発見し、マクスウェルが電磁波の原理を説明しました。人間は発電機、電気モーター、無線通信を発明しました。これは第二次産業革命であり、米国を世界一の大国に押し上げました。20世紀半ば、電子技術とコンピュータ技術の発展により、人類は急速に第三次産業革命である電子時代を迎えました。この機会を捉えて、日本は急速に戦争の影から抜け出し、世界で最も先進国の一つになりました。中国は最初の 3 つの産業革命に追いつくことができず、現在、世界は無線インターネット、人工知能、新エネルギー、バイオテクノロジーに代表される第 4 次産業革命の真っただ中にあります。5Gや人工知能、新エネルギーやバイオテクノロジーなど、今回は中国人がいないわけではない。中国の科学者や技術者が追いつくまでに 20 年以上かかりましたが、彼らは多くの新しい科学や技術において世界の最前線に立っています。

おすすめ

転載: blog.csdn.net/u012558210/article/details/132244109