2023年のAIGCとストレージの最新開発動向分析(前編)

先日フラッシュメモリサミットで報告したのですが、また話したいという友人が多かったので整理してみました。

2023年:生成AIとストレージの最新開発と動向分析(前編)

Chen Xuefei、上海コンピューター協会保管委員会メンバー

        生成型AIのブームは短期間に世界中を席巻し、その勢いは止まらず、ある時期には「IT業界を除けば誰もがAIの専門家」であるかのように見えました。AIブームが全国的に本格化してから半年以上が経ち、最初の花火が消えた今、状況はどうなっているのでしょうか?

1 . ユニコーンOpenAI崩壊へのカウントダウン?

        2023 年 8 月、インドのメディア Analytics India Magazine は、OpenAI が 3 つの理由により 2024 年末までに破産する可能性があると主張するレポートを発表しました。その理由は、ピーク後のユーザーの急速な減少、1 日あたり 70 万米ドルという高い運用コスト、および次のようなオープンソースの競合企業です。 Llama2の強いプレッシャー。(マイクロソフトの 110 億投資は、この噂を打ち砕くことができるはずです。年間 2 億 5,000 万の運営コストに基づいて、まだ 40 年間サポートできますが、前提としてマイクロソフトの投資が実際に受け入れられており、撤退条件はありません)業績評価など)。同時に、「ChatGPTはバカになった」という言葉もインターネット上で広まっており、一部のユーザーは、AIによるフィードバックが当初ほど素晴らしくなくなっていると述べ、回答には誤解が埋もれている場合もあります。 、場合によっては、業界ユーザーが「不可能」と考えるほど深刻な場合もあります。また、GPT-4はGPT-3.5と比較して精度の質的な向上が見られないとの見方もあり、規制評価機関ニューズガードの専門家によると、実際には精度、特に虚偽の情報を識別する能力が低下しているという。最後に、GPT-3.5にせよGPT-4にせよプライバシー保護技術はそれほど進歩しておらず、これも大規模アプリケーションでは避けては通れない重要な課題である。

図 1: OpenAI の月間ユーザー訪問数

2.大型モデルは天井に届きますか?

        一部の業界専門家は、GPT-4までに現在の大型モデルは成長の終焉を迎える可能性があると考えている。技術的に言えば、避けられない問題が 2 つあり、1 つは、「人類の歴史の中で生み出された唯一の優れたリソースである」コーパスの枯渇が重要な理由であり、さまざまな UGC や MGC のネットワーク データの総量は依然として増加し続けています。しかし、それらのほとんどは新しい情報をもたらすものではなく、役に立たない、さらには誤解を招く情報が大量に満載されているため、真の洞察を見つけることが困難になっています。OpenAI、Google、Meta のいずれであっても、大規模モデルのトレーニングに使用されるデータ コーパスの量や質に基本的な違いはありません。第 2 に、モデル自体の技術的な限界があります。単に規模の向上を追求するだけでは効果が薄れているようです。メタの主任人工知能科学者であるヤン・ルクン (ヤン・レチュン) 氏は次のように提案しました。「ChatGPT の背後にある生成人工知能技術は行き詰まり、限界が多すぎてそれを克服できない。「ブレークスルー」。GPT-5が出現しても破壊的進化をもたらすわけではない。チューリング賞を受賞したフランスのこの人物は、CNN の父であり、ディープラーニングの 3 つの巨人の 1 人であり、地球上で AI について最も詳しい人物の 1 人である可能性があります。しかし、Googleが秋に発売を予定している次世代大型モデル「Gemini」など、規模拡大にこだわり続けるプレーヤーも多く、母数が2倍になると言われている。

3.競争環境はどれほど熾烈ですか?

        一般的な大型モデルのヘッドをめぐる競争は非常に熾烈です。最初に Google が LaMDA、PaLM、PaLM 2 で挑戦を開始し、次に Meta の Llama 2 が登場しました。OpenAI の強力な競合他社は常に存在しており、パフォーマンスに明らかな差はありませんあらゆる面で。同社の名前には Open が付いていますが、さまざまな圧力により、OpenAI はクローズドソースかつ有料の方法でサービスを提供することを選択し、Meta はすぐにオープンソースとカスタマイズ可能なツールを使用して効果的な攻撃を開始し、OpenAI を強制的に攻撃したと発表されました。 GPT-3.5 はカスタマイズをサポートしており、いくつかのテストでは、微調整された GPT-3.5 Turbo バージョンが一部のタスクでは GPT-4 を上回ることができることが示されています。

        2023年5月にGoogleの内部文書が流出、「我々には堀はないし、OpenAIにもない」とあり、その2か月後の23年7月の分析資料ではGPT-4が技術的に複製可能であると指摘されていた。両国の大手インターネット企業と大手 AI 企業は、GPT-4 と同等かそれ以上のモデルを構築できるようになります。

        OpenAI は、約 2.15e25 の FLOPS で GPT-4 をトレーニングしました。約 25,000 台の A100 で 3 か月間トレーニングされ (その後、さらに 6 か月間微調整されました)、使用率は 32% ~ 36% でした。OpenAI がトレーニングに使用するクラウド インフラストラクチャの費用は、A100 時間あたり約 1 米ドルであり、この計算に基づくと、トレーニング費用だけで約 6,300 万米ドルとなります。これは中小企業にとって敷居が高く、GPU カードやデータセンターのリソースが引き続き不足していることも含め、そのような大規模なハードウェア施設を構築できるかどうかは考慮されていません。

        しかし、IT業界におけるムーアの法則は完全に消滅したわけではなく、時間の経過とともに高性能化、低コスト化が進むだろうし、2023年下半期にはすでに性能の優れたH100を主力としたクラウドインフラがよりコスト高になるだろう。有効性 (H100 時間あたり 2 米ドルで計算) では、同規模の事前トレーニングを約 8,192 台の H100 で実行でき、完了までにかかる時間はわずか 55 日です。このようにして、コストは約 1/2 である 2,150 万米ドルに削減されます。 OpenAIの前身である3。

        23年末までに、少なくとも9社が同規模以上のクラスターを保有すると推定されており(たとえば、Metaは12月末までに10万台以上のH100を保有する)、競合他社はすでにそれに注目している。OpenAI の堀を探さなければならない場合、実際のユーザーからのフィードバック、業界トップのエンジニアリング人材、そして業界で認められた現在のリーダー的地位という 3 つの点を考慮する必要があるかもしれません。

        個人的な分析では、一般的な大型モデルの競争状況は、数年前の検索エンジンと非常によく似たものになると考えており、必ずしも厳密な勝者総取りの状況ではないかもしれませんが、そう遠くない状況ではないでしょうか。市場に最後に残っている一般的な大型モデルのプレーヤーのほとんどは、最も正確な答えと最強の機能を提供できるリーダーと、最大でも 3 人のチェイサーという、ほんの数社の巨人にすぎません。後者のほうがユーザーにとって重要な意味を持つだけかもしれません。 . 複数のオプションだけです。もちろん、業界の大型モデルや垂直型の大型モデルについては別問題なので、ここでは当面議論しません。

   4. AI開発の軌跡 10年で三刀流に研ぎ澄まされる

        2012 年のコンピューター グラフィックス認識技術の躍進に始まり、2016 年の Alpha GO、そして 2022 年末の ChatGPT の出現に至るまで、AI テクノロジーはスモールデータとスモールモデルからビッグデータとビッグモデルの時代に移行しました。そして大きな計算能力。

        10年を経て、私たちは特定のタスクしか実行できない弱い人工知能からスタートし、深層畳み込みニューラルネットワーク技術から深層強化学習、大規模モデル、知覚から意思決定、そして認識に至るまで、強力な人工知能にどんどん近づいています。生成と行動、業界 現在、AI を指すために「インテリジェント エージェント」という新しい用語が使用されています。

        今日の大規模モデルは、複数の機能を備え、理論上の完全な機能にさえ近い、強力な人工知能 (汎用人工知能、AGI とも呼ばれます) に非常に近いものです。このまま順調に発展すれば、次の段階の超人工知能は理論的には現在の人類のレベルを超え、誰も触れたことのない限界に達する可能性がありますが、そのとき人間はどうやって対処していくのでしょうか。2019 年に世界人工知能会議に出席したとき、もう一人のチューリング賞受賞者である CMU のラジ・レディ教授が、GAT (Comprehensive Intelligent Assistant) というモデルを提案しているのを聞きました。超人工知能が最先端の科学の進歩を支援し、新たな知識を私たちに教えて人類文明の進歩を助けるという構想であり、最終的には自分の思いどおりになることを期待している。

5.大規模モデルのフレームワークと基本プロセス

        大規模なモデルには、ソフトウェア アルゴリズム、巨大な GPU クラスター、トレーニング用のデータ セットという 3 つの要素が必要であり、その後に多くのエンジニアリング作業が必要になります。初期の準備段階でのデータ収集とデータクリーニングを考慮しない場合、大規模なモデルの構築は、トレーニングと推論(作業)の 2 つのステップに大別されます。効果的なトレーニングによって総合的な能力を形成し、それをユーザーに提供します。推論段階 (チャット アプリケーション ChatGPT がさまざまな質問に答え、さまざまなヘルプを提供することを含む)。

        簡単なものから難しいものの順に複雑さの順に分類されており、大規模モデルの機能には、理解、対話、検索、テキスト コンテンツの生成、画像とビデオの生成、マルチモーダル グラフィックスとテキストの理解に加え、主題の試験、プログラミング、複雑なタスクの完了が含まれます。 、そしてさまざまなタイプの複雑な創造において人間を支援します。

        通常、最初のトレーニングフェーズはOpenAIを観測対象としたプレトレーニングフェーズとその後の微調整フェーズに分けられますが、GPT-4まではプレトレーニングフェーズで使用されるデータは主に大量のテキスト情報に基づいていました。教師あり学習手法では、最大 1.8 兆個のパラメータを持つモデルがトレーニングに入力されますが、前述したように、OpenAI は 25,000 枚の A100 カードを使用し、トレーニングを完了するのに 3 か月、その後 6 か月の微調整作業を行う必要があります。 。

        微調整テクノロジーは主に微調整フェーズで使用され、重要なリンクは人間のフィードバックに基づく強化学習である RLHF (Reinforcement Learning with Human Feedback) です。RLHF は、人工知能モデルの出力を人間の常識、認識、ニーズ、価値観とどのように一致させるかという、生成モデルの中核問題を解決します。簡単に言えば、AIに関する3つの見方を修正し、逸脱を解消し、いわゆる「大規模モデル錯視」問題を解決することだ。

        上記のトレーニング フェーズは基本的に 80% 完了しました。次に、さまざまな導入方法を検討し、その後のユーザーのフィードバックに基づいて最適化を続ける必要があります。OpenAI はクラウド展開を採用しており、ChatGPT ユーザーにアプリケーション インターフェイスや統合可能な API インターフェイスへの直接アクセスを提供します。Microsoft などの他のサードパーティは、API を介して統合し、独自のソフトウェアまたはクラウド サービスで大規模なモデルを呼び出して、ユーザーにさまざまな機能を提供できます。 Copilot (最近、「有名なインターネット有名数学者」テレンス・タオ氏は、VSCode プラグイン + Copilot の使いやすさについて印象深いものを残しました。GPT4 は、過去に彼のプログラミングを支援するのに最適でした)、および国内メーカーなど一般的な大規模クラウド モデルをレイアウトする Baidu も API 統合モードを提供します。さらに、一部の国内メーカーは、モデルを簡素化することができ、特定の業界に 1 つまたは 2 種類の AI 支援機能のみを提供する、通常は数十ノード未満の垂直産業向けの民営化導入を選択することに積極的です。大規模で包括的なものでなければなりません。そのため、垂直産業向けの「小型モデル」を多くの大型モデルをリリースしたと主張する国内メーカーも多く見受けられますが、厳密に言えば、それらは依然として弱い人工知能の範疇に属します。このタイプのアプリケーションは、規模が小さいだけでなく、ソフトウェアとハ​​ードウェアを組み合わせてエッジに展開することもでき、実装が容易な AI を活用したインダストリ モデルであり、多数のユーザーがターゲットとするセグメント化されたトラックでもあります。スタートアップの。

6.生成AI技術のフロンティアトレンド

        基本的な枠組みを理解したら、業界の最新動向を見てみましょう。

        現在の AI テクノロジー開発ラウンドは基本的に次のとおりです: CNN –> RNN –> LSTM –> RNN/LSTM +Attention –> Transformer. (たとえば、典型的な AI アプリケーション機械翻訳の分野では、いくつかの重要な段階は次のとおりです: RNN -> RNN のコンテキスト化 -> 注意を伴うコンテキスト化された RNN -> トランスフォーマー)

        現在、業界で主流の大型モデルは基本的にTransformerフレームワークで開発されています。2017年に提案された技術で、現在普及しているGPTはGenerative Pre-traning Transformerの略称であり、その名称からもさらに一歩進化した技術であることがわかります。事前トレーニング技術の追加に加えて、私が観察したもう 1 つの優れた機能は「水平拡張」です。

        長年の開発を経て、モデルの規模は急速に拡大し、深さの計算は徐々に「幅の計算」になりました 2016 年に業界で普及した ResNet-50 モデルを振り返ると、約 50 個のニューラル ネットワーク構造のみが使用されていますトレーニングと推論の場合、業界で認められた 2023 年の最高の大規模モデル GPT-4 では 1.8 兆個のパラメーターが使用されていますが、ニューラル ネットワーク層の数は 120 層までしか増加していません。層数(深さ)は2倍強にすぎませんが、パラメータ数は90万倍となり、それがそのままクラスタノード数(幅)の急激な拡大につながります。GPT-4 はトレーニングに必要な計算を完了するために 20,000 枚を超える GPU カードを使用したため、業界では深さの計算が幅の計算に拡張されたと冗談を言いました。(注: B は 10 億であるため、Transformer は 1 億 1,000 万のパラメータを使用し、GPT-3 は 1,750 億のパラメータを使用し、2 つの人気のある国内モデル 65B と 130B にはそれぞれ 650 億と 1,300 億のパラメータがあります)

7. 2023年の大型モデルに関する5つの懸念

        1 つ目はモデルのサイズです。

        大規模なモデルのサイズについて考えると、パラメーターの数、トークンの数、データの量、トレーニング クラスターのサイズなどのさまざまな尺度が表示されます。これらの概念はすべて相互に関連しています。まず、パラメータ数の増加はソフトウェアアルゴリズムの進化によるもので、これによりアーキテクチャが水平方向に拡張され、トレーニングクラスター内のノード数も当然大幅に増加します。アーキテクチャが拡張されると、より多くのデータ セットをトレーニングに使用できるようになります。トークンはトレーニング データのメタセグメントです。トレーニング データの量が増加すると、トークンの数も増加しますが、必ずしも線形の関係ではありません。したがって、これら 4 つの要素は、さまざまな次元からモデルのスケールを測定し、反映することができます。

        前述したように、2023 年後半までに、業界は盲目的な規模拡大の影響についてすでに 2 つの見解を持っています: 一部の専門家や企業は、限界効用の減少は明らかであると信じています。 130 億パラメータのバージョンはすでに GPT-3 (1,750 億パラメータ) よりも優れており、業界のいくつかの小規模モデルは数百億、さらには数十億のパラメータに基づいて良好なパフォーマンスを発揮し、数百に拡張する必要はありません。何十億、何兆という規模。7月のGPT-4の分析文書でも、パラメータスケールをGPT-3に比べて10倍以上に拡大した後、大規模クラスターの利用率が大幅に低下したと指摘しており、業界では一部のクラスターを「バブル」という言葉で表現している。計算能力の一部の「アイドリング」現象により、GPU が魚を捕獲するためにフル稼働していない現象は、推論コストが約 3 倍に増加しており、これも新しい材料を提供しました。マスク氏に代表されるAIの高エネルギー消費に対する批判者向け。

2 番目の焦点は、より優れた多次元並列処理        を実現する方法です

        生成 AI は典型的な並列コンピューティング アプリケーションであり、並列度が高いほど有利になります。現在、多次元並列化には、データ並列化、テンソル並列化、パイプライン並列化の 3 つの並列技術が含まれています。

        データの並列処理は比較的単純です。データの 1 つのコピーは大きすぎるため、データを複数のコピーに分割して複数の計算ノードに配置し、複数の GPU が同時に並列計算を実行できるようにします。

        Tensor 並列処理は、大規模なモデルが 1 枚のカードに収まらないため、プロセスを高速化するためにカットオープンされ、複数の GPU が使用されると単純に理解できます。テンソル並列処理の欠点は、中間の通信オーバーヘッドが高すぎることです。2 次元および 3 次元テンソル並列処理の普及の中心となるアイデアは、グローバルなシリアル化をよりローカルなシリアル化に置き換え、データを交換することです。グローバル通信の代わりにローカル通信を増やすことで、通信コストを削減し、効率を向上させます。Nvidia の Jen-Hsun Huang 氏も、GTC 2021 のスピーチで、クロスサーバー通信のオーバーヘッドを回避するために、すべてのテンソル並列処理をサーバー内に配置する必要があると述べましたが、これは利益に値しません。(注: テンソル計算は、大規模モデルの重要なコンピューティング機能です。テンソルは、多線形代数で使用される数学的概念です。物理学や工学に応用されています。内積などの数学的演算を実行できます。行列の乗算(行列は2次テンソル、ベクトルは1次テンソル、0次テンソルはスカラーです。スライス抽出行列なども実行できます)

        テンソルの利点は、テンソルが多次元であるため、より多くのデータをテンソルに含めることができ、計算がより効率的になることです。

        パイプラインの並列処理には、いくつかの賢いトレードオフが必要です。レイヤーの数と GPU の数の関係を考慮する必要があります。一部の専門家は、比喩に言及しました。GPU はエンジニアリング チームのようなものです。タスクは、多くの建物を建設することです。それぞれの建物には、多くの建物があります。パイプラインの層数はフロア数に相当します。15 のエンジニアリング チームが 1,000 の建物を建設すると、理論上の並列処理が 15 に達し、すべての GPU がビジー状態になり、フィッシングがなくなります。したがって、並列効率を向上させるコツは、バッチ サイズを増やし、パイプライン層の数と GPU の比率を高めることです。

        GPT-4が8チャネルのテンソル並列処理+15チャネルのパイプライン並列処理を採用していることは、7月のGPT-4解析データで指摘されていたが、その理由の一つとして、GPUカードの最大8チャネルNVlinkの現状によって制限されることが挙げられる。 . もう一つの理由は、A100 の 40GB ビデオ メモリの量にあるかもしれません。

        3 つの並列技術のうち、テンソル並列処理は現在業界の注目を集めており、改善できれば大きな助けとなるでしょう。2023 年 7 月、Google はオープンソースのテンソル コンピューティング ライブラリ TensorNetwork とその API を発表し、GPU での高速化効果は CPU の 100 倍であると主張しました。すでに業界では多くの人が試していると思いますが、実際の結果についての分析やレポートは見たことがありません。

        3 番目の焦点は、混合エキスパート モデル (MoE)です。

        OpenAI を含む個別の大規模モデルとは異なり、Google と Microsoft は両方ともこの新しいアーキテクチャを使用しています。MoE の基本的なアイデアは、複数の比較的小規模なモデルを組み合わせ、それぞれが特定の部分の専門家となり、外部推論サービスを共同で提供することです。各推論では 1 つまたは 2 つのモデルのみが使用されるため、推論中のパラメータとリソースの数を効果的に削減できます。たとえば、Google の GlaM モデルは合計 1 兆 2,000 億個のパラメータを使用しており、内部には 64 個の小さなニューラル ネットワークが含まれていますが、推論中に使用されるのは 2 個だけで、パラメータの 8% とエネルギー消費量の 8% を占めます。7月の分析資料によると、GPT-4はそれぞれ1兆1000億パラメータを持つ16のエキスパートモデルを使用していた。エキスパート モデルの数が理論上の最適値である 64 ~ 128 よりも大幅に少ない理由は、OpenAI の専門家が、エキスパート モデルが多すぎると一般化が妨げられ、収束が困難になり、一般的なモデルを構築するという目標に悪影響を及ぼすと考えているためです。 ●目的の大型モデル。

        一般的な大規模モデルの分野だけでなく、一部の垂直大規模モデルでも同様の考え方が使われていますが、「大規模モデルのルーティング」という別の用語が使われています。 Webプログラミングを参考に導入しており、テーブルのみを作成するモデルやチャートを作成するモデルなど、さまざまなシナリオや機能に応じて多くの「小さなモデル」が作成され、機能が分割されています。使用する場合は、ユーザーのニーズに基づいてどの「小さなモデル」をどのような順序で呼び出すかが決定され、最終的にタスク全体が完了します。使用されている名詞は異なりますが、デザインのアイデアは非常に似ています。

        推論に関しては、「低遅延推論」が用語概念として明確に提案されています。これには、入力および出力の応答時間が許容範囲に制限されることが必要です。モデルは 1 秒あたり特定の数のトークンを出力する必要があります。ユーザー、人間には 30 トークン/秒が必要ですが、許容されます。また、1 回の呼び出しが 1 回の推論であることを考慮すると、コストも制御する必要があります。推論最適化の最新の手法は「投機的サンプリング/デコーディング」です。これは、小規模なモデルを使用して「ドラフト」して N 個のトークンを生成し、その後、大規模なモデルでそれらを評価させます。それらが受け入れられる場合は、直接使用されます。それらは受け入れられないため、変更されます。この方法では、指数関数的な加速を実現し、推論コストを削減できます。GPT-4や今秋発売予定のGoogleの次世代大型モデルGeminiもこの方式を採用していると言われており、Googleも関連論文を発表している。

        4 つ目は、メモリ管理の最適化の問題です。

        大規模なモデルは大量のメモリを消費します。大規模なモデルを進化させるための基本テクノロジは、Transformer フレームワークです。まず、計算のためにパラメータと勾配をメモリに配置する必要があります。トレーニング GPT を例にとると、1 兆個のパラメータに基づいて計算すると、単精度でも各パラメータが 4 バイトを占有し、パラメータだけで 4T のメモリを占有し、勾配も 4T のメモリを占有することになります。この有名なフレームワークのコア メカニズムの注目と組み合わせると、このベースで指数関数的な増幅が生じ、理論上のメモリ要件の総量は PB レベルに達します。

        現在、メモリ最適化業界にはいくつかのソリューションがありますが、その基本的な考え方には通常 2 つの方向性があります。1 つはソフトウェア アルゴリズムにおけるメモリのオーバーヘッドを可能な限り削減することであり、もう 1 つは CPU 間を含むデータの移動を最小限に抑えることです。と GPU、および CPU と NVme ハードウェアの間。

        5 番目の焦点は、視覚的なマルチモダリティです。

        資料分析によると、OpenAI は当初、GPT-4 でビジュアル モデル トレーニングを一から使用することを望んでいましたが、さまざまな理由により、最終的には一歩後退しました。最初にテキストによる事前トレーニングを使用した後、ファイン トレーニングに約 2 兆トークンを使用しました。 -tuning . 、GPT-4のマルチモーダル機能を形成します。

        次世代モデル「GPT-5」では、ビジュアルモデルをゼロから学習させる予定で、マルチモーダルモデルの学習に使用するデータには、「結合データ」(LaTeX/テキスト)、Webページのスクリーンショット、YouTube動画(サンプリングフレーム)が含まれます。 、字幕を取得するには Whisper を実行するなど)を行うと、トレーニング データには大量の非構造化データが含まれることになり、概算では、各トークンは 600 バイト、規模はテキストの 150 倍になります。

        OpenAIは、訓練に成功した次世代の「自律エージェント」がGPT4の機能を備えているだけでなく、Webページを読み取り、画像やビデオのコンテンツを転写し、画像や音声を独立して生成できるようになることを期待している。(現在、ハリウッドの脚本家だけでなく編集者、編集者、ポストプロデューサーも抗議活動に参加している)

        アプリケーションの見通しに加えて、トレーニングに視覚データを使用することは根本的な変化を生み出す可能性があります。

        これまでのところ、言語とテキストは依然として汎用大規模モデルをトレーニングするための基本的なコーパスです。GPT によって取得されるすべての情報は依然として「言語の境界」に閉じ込められています。哲学者ウィトゲンシュタインの有名な主張によると、「言語の境界」 「大きなモデルの場合、言語情報によって論理とテキストの世界に限定され、客観的な事実を認識することができなくなり、「水槽の中の脳」のような哲学的幻想に陥る可能性があります。比較すると、静止画像データは空間構造情報を提供でき、ビデオ データ自体にも時間構造情報が含まれているため、GPT はこの情報を利用して因果関係などのより深い基本規則をさらに学習し、より大きな可能性を広げることができます。

        もちろん、テキストコーパスに基づく「モデルファントム」の問題はすでに存在しており、いわゆる「深刻なナンセンス」状況を完全に排除することはできませんが、現在の研究からは、視覚的なマルチモーダルの問題が解決されていると考えられます。ファントムはより深刻でパラメータもより複雑で、Lalma2 などの大型モデルは 7B などの小型モデルよりも深刻な影響を受けます。ファントムをより効果的に減らす方法は、業界ではまだ未解決の問題です。

        AI についてはこれで終わりです。ストレージについては後ほど説明します。

(つづく)

2023 .9

おすすめ

転載: blog.csdn.net/m0_61289673/article/details/132709020