はじめに: 現在、技術界の強い注目を集めるビッグモデルの本格化が進んでいます。今、ビッグモデルの開発に専念すれば、あなたはビッグモデル開発エンジニアの第一期生であり、業界の先行者利益とボーナスを確実に享受できます。
普通の人間なのに、こんなに給料が高いのなら、転職しなければなりません!私はこの一連の記事を整理して執筆していますが、一方では、参考となる明確な学習経路を提供したいと考えています。一方、これは私自身の成長体験の振り返りと要約でもあります。皆様の知恵と力を結集して、この業界の配当チャンスを共に掴んでいきたいと思っております。
すべてのおすすめ記事は私の個人的なコラムからのものです。他の関連性のある詳細な記事を読んだ場合は、コメント欄で教えてください。できるだけ早く読みます。内容が本当に質の高いものであれば、原作者に連絡し、ここにリンクを添付して知識を共有します。
さて、本題に入ります。全体的な高度なロードマップから始めましょう (継続的に更新されます)
1.コンセプト
この一連のコンテンツの主な目的は、大規模モデルの中核となる概念と基礎を理解することです。
1. ビッグモデル、GPT ChatGPT、その他の AI コンセプト
おすすめ記事: OpenAI 開発シリーズ (1): 大規模モデル、GPT ChatGPT などの AI の概念を理解するための 1 つの記事
理由: 大規模言語モデルや GPT などのコア概念を深く理解しているため、最初の記事でこれを読んだ後はこれ以上言う必要はありません。関連する概念が明確でなくても、何を開発すればよいでしょうか?
マインドマッピング:
重要な知識のポイント:大規模モデル開発エンジニアの面接質問 (1): これらの AI 概念を知っておく必要があります
2. トランスの原理(執筆中、公開予定)
3. OpenAI の大規模モデルの生態
オススメ記事:OpenAI開発シリーズ(3):OpenAIの大規模モデルエコロジー入門
理由: OpenAI の大規模モデル製品は多様性が特徴であり、これは OpenAI が単一のモデルに焦点を当てるだけでなく、さまざまなニーズやアプリケーション シナリオに対応する一連のモデルを提供していることを示しています。したがって、開発者は、さまざまなニーズに直面して、研究開発に適切なモデルを選択する必要があります。
マインドマッピング:
コア知識ポイント: [大規模モデル開発エンジニアの面接質問 (3): OpenAI の大規模モデルの生態を理解する]
2. OpenAIオンライン大規模モデル
この一連のコンテンツの主な目的は、OpenAI オンライン大規模モデルを使用して AI アプリケーションの開発と微調整を完了する方法を学ぶことです。
1. OpenAI APIの呼び出し方法をマスターする
おすすめ記事:OpenAI開発シリーズ(4):OpenAIのAPI呼び出し方法をマスターする
理由: API キーを取得するプロセスは、OpenAI モデルを使用するための基本的な手順の 1 つであり、研究開発を開始する前に、API キーを使用して OpenAI ラージ モデルを呼び出す方法、およびその方法を知る必要があります。各モデルのパラメータペアを設定および最適化する 生成されたコンテンツがどのような影響を与えるか
マインドマッピング:
基礎知識:大規模モデル開発エンジニアの面接質問④:OpenAI APIの呼び出し方法をマスターする
2. Jupyter ローカル環境での OpenAI API 呼び出し
おすすめ記事: OpenAI 開発シリーズ (5): Jupyter のローカル環境で OpenAI API 呼び出しを実装する
理由: 基本的に研究開発やテストはローカルの Jupyter を介して開発作業が行われることが多いため、Jupyter のローカル環境で OpenAI API を呼び出すための詳細なメソッドを提供することが AI アプリケーション開発の第一歩となります。
マインドマッピング:
3. Completionsモデルの動作原理と応用例(多ラウンド対話ロボットの開発)
論文推薦:OpenAI開発シリーズ(6):Completionsモデルの動作原理と応用例(多ラウンド対話ロボットの開発)
理由: OpenAI が提供する Completions モデルについて、基本的な概念やパラメータの詳細な説明などを深く理解する必要があります。, この記事では、OpenAI Completions モデルに関する包括的な視点を提供し、その動作原理、メソッドの呼び出し、アプリケーション例を取り上げます。これは、この強力なモデルをより効果的に使用するための開発作業に強固な基盤を提供します。この記事では、次のような複数回の対話ロボットによる AI アプリケーション開発の思考プロセスも提供します。
マインドマッピング:
基礎知識:大規模モデル開発エンジニアの面接質問(5):Completionsモデルの動作原理と応用例をマスターする
4. LLM プロンプト プロジェクト (Prompt) と思考連鎖 (CoT)
おすすめ記事:OpenAI開発シリーズ(7):LLMプロンプトエンジニアリング(Prompt)と思考連鎖(CoT)
理論的根拠: 緊急機能とは、大規模なモデルでは出現しないが、大規模なモデルでは非常にうまく機能する、大規模なモデルで出現する予測不可能な機能です。この記事では、関連する研究を引用し、創発的能力の定義についてさらに詳しく説明しています。ヒント エンジニアリングを通じてこれらの機能を最大限に活用する方法を理解することは、AI アプリケーション開発にとって必須であり、産業レベルのヒント エンジニアリング プロセスは次のとおりです。
マインドマッピング:
コア知識ポイント:大規模モデル開発エンジニアの面接質問 (7): LLM プロンプト エンジニアリング (Prompt) と思考連鎖 (CoT)
5. 思考連鎖(CoT)に基づく高度なリマインダーエンジニアリング
論文推薦:OpenAI開発シリーズ(8):思考連鎖(CoT)に基づく高度な即時エンジニアリング
理由: 論文で古典的な推論問題を再現することにより、思考連鎖プロンプト法と LtM プロンプトの考え方と実践的な応用を示します。ヒント エンジニアリングは、大規模な言語モデルの創発力を最大化するための重要な技術です。また、高度なヒント手法としての思考連鎖 (CoT) は、モデルが複雑なタスクをより適切に解決するのに役立ちます。AI アプリケーション開発に大規模なモデルを使用する場合は、優れたプロンプト手法を習得することが基礎であり、プログラムをより適切に開発するには、さまざまなシナリオにおけるさまざまなプロンプト手法の推定効果に精通する必要があります。
焦点: LtM プロンプトのプロセスは次のとおりです。
マインドマッピング:
基礎知識:大規模モデル開発エンジニアの面接質問(8):思考連鎖(CoT)に基づく高度なプロジェクト促進
6. LtM Hints Engineering がデータ モデリングにどのように使用されるか
記事の推薦: OpenAI 開発シリーズ (9): LtM Prompt Engineering をデータ モデリングに使用する方法
理由: この記事を注意深く読むことを強くお勧めします。論文「LEAST-TO-MOST PROMPTING ENABLES COMPLEX REASONING IN LARGE LANGUAGE MODELS」を徹底的に再現し、text-davinci-003 モデルと組み合わせることで、最大 99.7% の予測精度が達成され、実際のモデリング プロセスと改善戦略。これは、大規模なモデルをモデル化する方法についての非常に良いアイデアとインスピレーションです。
焦点: Few-Shot-LtM プロンプトのプロセスは次のとおりです。
マインドマッピング:
核となる知識ポイント:大規模モデル開発エンジニアへの面接の質問 (9): LtM がエンジニアリングにデータ モデリングを促す方法
7. チャット完了モデル API の詳細な説明とローカル知識ベースの質問応答システムの構築の実践
論文推薦:OpenAI開発シリーズ(10):チャット補完モデルAPIの詳細解説とローカルナレッジベース質問応答システム構築の実践
理由: Chat Completion Models API は OpenAI が提供する強力な API インターフェイスで、OpenAI の公式データによれば、アプリケーション開発の 97% は Chat モデルに基づいています。したがって、この記事では、OpenAI のチャット完了モデル API の包括的な紹介を提供し、API のさまざまなパラメーターを詳細に説明し、実際のケースを組み合わせて、この API を使用してローカル ナレッジ ベースの質問と回答を実装するための開発アイデアを提供します。この API の仕組みと使用方法を理解することが、これらのアプリケーションを開発する鍵となります。
注目: チャット モデルの起源
マインドマッピング:
コアナレッジポイント:大規模モデル開発エンジニアへの面接質問(10):チャット補完モデルAPIの詳細説明とローカルナレッジベース質問応答システム構築の実践
8. 実際のアプリケーションプロセスと関数呼び出し関数の事例分析
オススメ記事:OpenAI開発シリーズ(11):関数呼び出し関数の実際の応用プロセスと事例分析
理由: OpenAI の Chat Completions モデルの関数呼び出し関数の包括的な紹介を提供します。関数呼び出し関数を使用すると、大規模なモデルがインターネットにアクセスしたり、外部インターフェイスにアクセスしたりできるようになり、それによって固有の知識ベースの制限が克服されます。この記事では、この関数の動作原理を詳細に説明し、実際のケースと組み合わせて関数呼び出しの関数呼び出しプロセスを示し、大規模なモデル アプリケーションの実装に重要なアイデアと参考値を提供します。
注目1:Function Calling機能導入後のAI開発プロセスの大きな変化とは
焦点 2: 関数呼び出し関数を使用して大規模モデルがロードされた後、完全な呼び出しプロセスが実行されます。
マインドマッピング:
コア知識:大規模モデル開発エンジニアへの面接質問(11):関数呼び出し関数の実際の適用プロセスと事例分析
9.関数呼び出し処理の最適化とマルチラウンド対話の実現
論文推薦:OpenAI開発シリーズ(12):関数呼び出し機能のプロセス最適化とマルチラウンド対話の実現
理由:チャット完了モデルの関数呼び出し関数の上位関数のカプセル化を実装し、外部関数を呼び出せるマルチラウンド対話アシスタントを実現するため。このメソッドは、関数呼び出し関数の基本的な使用法を継続するだけでなく、これに基づいてさらに最適化および適用します。この高度な機能のカプセル化により、開発者はより複雑で高度なマルチラウンド対話システムを構築できます。
マインドマッピング: