1. オープンソース LLM コレクション。
https://github.com/nichtdax/awesome-totally-open-chatgpt
2. オープンソースと市販の大型モデル
https://github.com/eugeneyan/open-llms
3. 大規模な言語モデル、特に ChatGPT に関連する論文のリストには、LLM トレーニング フレームワーク、LLM を展開するためのツール、LLM に関するコースとチュートリアル、および公開されているすべてのものが含まれています。 LLM の重みと API。
https://github.com/Hannibal046/Awesome-LLM
4. Amazon の科学者、Yang Jingfeng とその他の著名人によって作成された言語大規模モデルの実践ガイドには、GPT などの大規模モデルの開発プロセスを示す、多くの古典的な論文、例、図が集められています。
GitHub - Mooler0410/LLMsPracticalGuide: LLM の実践的なガイド リソースの厳選されたリスト (LLM ツリー、例、論文)
5. ローカルで実行できるリソース LLM。
https://github.com/imaurer/awesome-decentralized-llm
6. karpathy によってリリースされた OpenAIGPT (事前トレーニング コンバーター トレーニングを生成するための最小限の PyTorch 実装コードは非常に簡潔かつ明確で、GPT モデルの実践的な学習に適しています。
GitHub - karpathy/minGPT: OpenAI GPT (Generative Pretrained Transformer) トレーニング 7 の最小限の PyTorch 再実装、
オープンソース データ、モデル、重み、およびトレーニングの提供、LLM の微調整チュートリアル
GitHub - 一緒にコンピューター/OpenChatKit
8. ChatYuan-large-v2 は、軽量で高品質の結果を実現する ChatYuan シリーズのモデルの 1 つで、ユーザーは消費者グレードのグラフィック カード、PC、さらには携帯電話でも推論を実行できます (INT4 には少なくとも 400M のみが必要です) 。
GitHub - quote-ai/ChatYuan: ChatYuan: 中国語と英語での対話のための大規模言語モデル
9. スタンフォード大学、指示に従って LLaMA モデルを構築して共有。
https://github.com/tatsu-lab/stanford_alpaca
10. LLaMa に基づく LLM アシスタント。トレーニング コード、データ、デモンストレーションを提供し、独自の AI アシスタントをトレーニングします。
11. Alpaca Lora モデルに基づいて、Windows および Mac 上でローカルに実行できる無料かつ無制限の GPT
12. 大規模なモデル コミュニティを一緒に構築し、誰もが大規模なモデルをトレーニングできるようにします。
GitHub - OptimalScale/LMFlow: 大規模基盤モデルの微調整と推論のための拡張可能なツールキット. すべての人のための大規模モデル. 13. Alpaca の後、スタンフォード大学は
CMU、カリフォルニア大学バークレー校、その他の機関の学者と協力して 130 億パラメータ モデル Llama をリリースしました ( Vicuna )、わずか 300 ドルで ChatGPT のパフォーマンスの 90% を達成します。FastChat は、Vicuna の GitHub オープン ソース リポジトリです。
GitHub - lm-sys/FastChat: 大規模言語モデルのトレーニング、提供、評価のためのオープン プラットフォーム Vicuna および FastChat-T5 のリリース リポジトリ 14. LAION-AI、有名な AI 組織は、オープンソース
チャット強力なチャット機能を持つアシスタント、中国語能力は低い
GitHub - LAION-AI/Open-Assistant: OpenAssistant は、タスクを理解し、サードパーティ システムと対話し、そのために動的に情報を取得できるチャットベースのアシスタントです。
GitHub - ggerganov/llama.cpp: C/C++ での Facebook の LLaMA モデルのポート
16. アルパカをベースに改良された新しいチャットロボット、コアラ
https://github.com/young-geng/EasyLM#koala
17. Alpaca-CoT プロジェクトは、命令チューニングを通じて LLM に ChatGPT のような対話機能と命令追従機能を持たせる方法を探ることを目的としています。
https://github.com/PhoebusSi/Alpaca-CoT/blob/main/CN_README.md
18. OpenFlamingo は、大規模なマルチモーダル モデルを評価およびトレーニングするためのオープン ソース フレームワークであり、大規模モデルに関しては大きな前進です。
https://github.com/mlfoundations/open_flamingo
19. LLaMA、LLaMA.cpp、GPT-J、Pythia、OPT、GALACTICA などの大規模な言語モデルを実行するための Web Ul。
https://github.com/oababooga/text-generation-webui
20. Chen Tianqi の傑作である MLC LLM は、あらゆる大規模な言語モデルをさまざまなハードウェアにネイティブに展開します。大規模なモデルをモバイル デバイス (iPhone など)、コンシューマ コンピュータ (Mac など)、および Web ブラウザに適用します。
https://github.com/mlc-ai/mlc-llm
21. Llamaベースのローカルプライベートドキュメントアシスタント
https://github.com/imartinez/privateGPT
22. Hua Tuoyi - 医療分野における大規模な中国人モデル