LLM アプリケーションの例 LLM の使用例とタスク

LLM と生成 AI は主にチャットのタスクに関係していると思われるかもしれません。結局のところ、チャットボットは非常に注目され、脚光を浴びています。次の単語の予測は、基本的なチャットボットをはじめとするさまざまな機能の背後にある基本概念です。
ここに画像の説明を挿入

ただし、この概念的に単純な手法を使用して、テキスト生成の他のさまざまなタスクを実行できます。たとえば、プロンプトに基づいてモデルに記事を書くように依頼できます。
ここに画像の説明を挿入

または、プロンプトとして提供されたダイアログを要約すると、モデルはこのデータと自然言語の理解を使用して要約を生成します。
ここに画像の説明を挿入

このモデルを使用すると、フランス語とドイツ語、英語とスペイン語など、2 つの異なる言語間の従来の翻訳から、さまざまな翻訳タスクを実行できます。
ここに画像の説明を挿入

または、自然言語をマシンコードに翻訳します。たとえば、DataFrame の各列の平均を返す Python コードを記述するようにモデルに要求すると、モデルはインタープリターに渡すことができるコードを生成します。
ここに画像の説明を挿入

LLM は、情報検索などの小規模で集中的なタスクに使用できます。この例では、ニュース記事で言及されている人物と場所を特定するようにモデルに依頼します。これは固有表現認識、つまり単語分類と呼ばれます。モデルパラメータにエンコードされた知識理解により、モデルはこのタスクを正しく実行し、要求された情報を返すことができます。
ここに画像の説明を挿入

最後に、開発の活発な領域は、LLM を外部データ ソースに接続するか、LLM を使用して外部 API を呼び出すことによる拡張です。この機能を使用すると、事前トレーニング中に知らなかった情報をモデルに提供し、モデルが現実世界と対話できるようにすることができます。
ここに画像の説明を挿入

これを行う方法については、コースの第 3 週でさらに詳しく学びます。開発者は、基礎となるモデルのサイズが数億のパラメータから数十億、さらには数千億に増加するにつれて、モデルが持つ言語理解が向上することに気づきました。モデルパラメータに保存されたこの言語理解は、与えられたタスクを処理し、推論し、最終的に解決します。
ここに画像の説明を挿入

しかし、より小規模なモデルを微調整して、特定の重点タスクで適切なパフォーマンスを発揮できることも事実です。これを行う方法については、コースの第 2 週でさらに詳しく学びます。LLM が過去数年間に示した機能の急速な成長は、主に LLM を駆動するアーキテクチャによるものです。次のビデオに進んで詳しく見てみましょう。

参考

https://www.coursera.org/learn/generative-ai-with-llms/lecture/7zFPm/llm-use-cases-and-tasks

おすすめ

転載: blog.csdn.net/zgpeace/article/details/132379705