Beispiele für LLM-Anwendungen, LLM-Anwendungsfälle und -Aufgaben

Man könnte meinen, dass sich LLMs und generative KI hauptsächlich mit der Aufgabe des Chattens befassen. Schließlich stehen Chatbots sehr im Rampenlicht und im Rampenlicht. Die Vorhersage des nächsten Wortes ist das Grundkonzept hinter vielen verschiedenen Funktionen, angefangen bei einfachen Chatbots.
Fügen Sie hier eine Bildbeschreibung ein

Sie können diese konzeptionell einfache Technik jedoch verwenden, um verschiedene andere Aufgaben bei der Textgenerierung auszuführen. Beispielsweise können Sie das Modell bitten, basierend auf einer Aufforderung einen Artikel zu schreiben.
Fügen Sie hier eine Bildbeschreibung ein

Oder fassen Sie den Dialog zusammen, den Sie als Eingabeaufforderung bereitstellen, und das Modell verwendet diese Daten zusammen mit seinem Verständnis natürlicher Sprache, um eine Zusammenfassung zu erstellen.
Fügen Sie hier eine Bildbeschreibung ein

Sie können das Modell verwenden, um eine Vielzahl von Übersetzungsaufgaben durchzuführen, von der traditionellen Übersetzung zwischen zwei verschiedenen Sprachen wie Französisch und Deutsch oder Englisch und Spanisch.
Fügen Sie hier eine Bildbeschreibung ein

Oder übersetzen Sie natürliche Sprache in Maschinencode. Sie können das Modell beispielsweise bitten, Python-Code zu schreiben, der den Mittelwert jeder Spalte im DataFrame zurückgibt, und das Modell generiert dann Code, den Sie an den Interpreter übergeben können.
Fügen Sie hier eine Bildbeschreibung ein

Sie können LLMs für kleine, gezielte Aufgaben wie das Abrufen von Informationen verwenden. In diesem Beispiel bitten Sie das Modell, in Nachrichtenartikeln erwähnte Personen und Orte zu identifizieren. Dies wird als benannte Entitätserkennung bezeichnet, eine Wortklassifizierung. Das in den Modellparametern kodierte Wissensverständnis ermöglicht es ihm, diese Aufgabe korrekt auszuführen und Ihnen die angeforderten Informationen zurückzugeben.
Fügen Sie hier eine Bildbeschreibung ein

Ein aktiver Entwicklungsbereich ist schließlich die Verbesserung von LLMs durch die Anbindung an externe Datenquellen oder deren Nutzung zum Aufruf externer APIs. Sie können diese Funktion verwenden, um Ihrem Modell Informationen bereitzustellen, die es während des Vortrainings nicht kannte, und um Ihrem Modell die Interaktion mit der realen Welt zu ermöglichen.
Fügen Sie hier eine Bildbeschreibung ein

Wie das geht, erfahren Sie in Woche 3 des Kurses. Entwickler haben herausgefunden, dass das Sprachverständnis der Modelle zunimmt, wenn die Größe der zugrunde liegenden Modelle von Hunderten Millionen Parametern auf Milliarden oder sogar Hunderte von Milliarden anwächst. Dieses in den Modellparametern gespeicherte Sprachverständnis ist es, das die von Ihnen gestellte Aufgabe verarbeitet, begründet und letztendlich löst.
Fügen Sie hier eine Bildbeschreibung ein

Es stimmt aber auch, dass kleinere Modelle fein abgestimmt werden können, um bei bestimmten Fokusaufgaben eine gute Leistung zu erbringen. Wie das geht, erfahren Sie in Woche 2 des Kurses. Das rasante Leistungswachstum, das LLMs in den letzten Jahren gezeigt haben, ist größtenteils auf die Architektur zurückzuführen, die ihnen zugrunde liegt. Fahren wir mit dem nächsten Video fort, um einen genaueren Blick darauf zu werfen.

Referenz

https://www.coursera.org/learn/generative-ai-with-llms/lecture/7zFPm/llm-use-cases-and-tasks

Ich denke du magst

Origin blog.csdn.net/zgpeace/article/details/132379705
Empfohlen
Rangfolge