大規模モデルのインタビューの頻度の高い質問の分類

大規模モデルのインタビューの頻度の高い質問の分類

2023-08-27 13:03に上海で公開された オリジナルのインターネット継続学習サークル  

最近は大型モデル関連の求人が多く、大型モデルに関する面接も当初は改善されてきましたが、大型モデルの面接に関してよくある質問を編集部がまとめてみましたので参考にしてください。問題はそれほど多くありませんが、頻度が高いことは間違いありません。関連する機会を探している学生が良い結果をもたらすことを願っています。同時に、皆さんも公式アカウントに注目して、バックグラウンドで議論するメッセージを残してください。

インターネット継続学習サークル

清華大学コンピューター学部の卒業生によって設立されました。985 の大学と海外の修士号および博士号の 70%、インターネットエリートと自営業の起業家の 30%、継続的な学習者の独占的なサークルです。インターネット情報、科学研究、就職活動などに重点を置きます。まず道具を認識し、文学と芸術がそれに続き、20年間の進化に伴走します。

31のオリジナルコンテンツ

一般公開なし

  1. GPTとバートの違いは何ですか?

  2. NLP のどのシナリオが大規模モデルに適していませんか?

  3. ChatGPTのメリットとデメリットは?

  4. GPTシリーズの進化?

  5. 現在の大規模モデルのほとんどがデコーダのみのアーキテクチャであるのはなぜですか?

  6. LLaMAの主な構造は?

  7. 回転位置コーディングはどのように機能しますか?

  8. RMSNorm と LayerNorm の違いは何ですか?

  9. GLM は 3 つのアーキテクチャをどのように組み合わせますか?

  10. エンコーダーの注意とデコーダーの注意の違いは何ですか?

  11. 大型モデルの一般的な微調整方法?

  12. LoRAの原理は一般的にどの層で使われているのでしょうか?

  13. なぜ低位行列は表現力が弱いのでしょうか?

  14. ChatGPT のトレーニング手順は?

  15. RLHF の段階は何ですか?

  16. PPOの原則?

  17. コンテキスト学習が効果的なのはなぜですか?

  18. ChatGPTの思考連鎖能力はどのようにして得られるのでしょうか?

  19. ChatGPT と instructGPT の違いは何ですか?

  20. BPE、ワードピース、センテンスピースの違いは何ですか?

  21. 注意の複雑さ? 注意力の最適化?

  22. マルチヘッドセルフアテンションコードの実装?

  23. 自注意パラメータ計算?

  24. 注目されるQKVの意味と機能とは何ですか?

  25. アテンションマスクはどのように実装されますか?

  26. レイヤー正規化の最適化?

  27. レイヤー正規化とバッチ正規化の違いは何ですか?

  28. 位置エンコード方式の比較?

  29. デコード方式の比較?

  30. バートのメリットとデメリットは?MLM と NSP の 2 つのタスクに対するその後の改善はありますか?

  31. 自社開発の大型模型を中国でやる意義とは何でしょうか?

     

おすすめ

転載: blog.csdn.net/sinat_37574187/article/details/132524774