Man könnte meinen, dass sich LLMs und generative KI hauptsächlich mit der Aufgabe des Chattens befassen. Schließlich stehen Chatbots sehr im Rampenlicht und im Rampenlicht. Die Vorhersage des nächsten Wortes ist das Grundkonzept hinter vielen verschiedenen Funktionen, angefangen bei einfachen Chatbots.
Sie können diese konzeptionell einfache Technik jedoch verwenden, um verschiedene andere Aufgaben bei der Textgenerierung auszuführen. Beispielsweise können Sie das Modell bitten, basierend auf einer Aufforderung einen Artikel zu schreiben.
Oder fassen Sie den Dialog zusammen, den Sie als Eingabeaufforderung bereitstellen, und das Modell verwendet diese Daten zusammen mit seinem Verständnis natürlicher Sprache, um eine Zusammenfassung zu erstellen.
Sie können das Modell verwenden, um eine Vielzahl von Übersetzungsaufgaben durchzuführen, von der traditionellen Übersetzung zwischen zwei verschiedenen Sprachen wie Französisch und Deutsch oder Englisch und Spanisch.
Oder übersetzen Sie natürliche Sprache in Maschinencode. Sie können das Modell beispielsweise bitten, Python-Code zu schreiben, der den Mittelwert jeder Spalte im DataFrame zurückgibt, und das Modell generiert dann Code, den Sie an den Interpreter übergeben können.
Sie können LLMs für kleine, gezielte Aufgaben wie das Abrufen von Informationen verwenden. In diesem Beispiel bitten Sie das Modell, in Nachrichtenartikeln erwähnte Personen und Orte zu identifizieren. Dies wird als benannte Entitätserkennung bezeichnet, eine Wortklassifizierung. Das in den Modellparametern kodierte Wissensverständnis ermöglicht es ihm, diese Aufgabe korrekt auszuführen und Ihnen die angeforderten Informationen zurückzugeben.
Ein aktiver Entwicklungsbereich ist schließlich die Verbesserung von LLMs durch die Anbindung an externe Datenquellen oder deren Nutzung zum Aufruf externer APIs. Sie können diese Funktion verwenden, um Ihrem Modell Informationen bereitzustellen, die es während des Vortrainings nicht kannte, und um Ihrem Modell die Interaktion mit der realen Welt zu ermöglichen.
Wie das geht, erfahren Sie in Woche 3 des Kurses. Entwickler haben herausgefunden, dass das Sprachverständnis der Modelle zunimmt, wenn die Größe der zugrunde liegenden Modelle von Hunderten Millionen Parametern auf Milliarden oder sogar Hunderte von Milliarden anwächst. Dieses in den Modellparametern gespeicherte Sprachverständnis ist es, das die von Ihnen gestellte Aufgabe verarbeitet, begründet und letztendlich löst.
Es stimmt aber auch, dass kleinere Modelle fein abgestimmt werden können, um bei bestimmten Fokusaufgaben eine gute Leistung zu erbringen. Wie das geht, erfahren Sie in Woche 2 des Kurses. Das rasante Leistungswachstum, das LLMs in den letzten Jahren gezeigt haben, ist größtenteils auf die Architektur zurückzuführen, die ihnen zugrunde liegt. Fahren wir mit dem nächsten Video fort, um einen genaueren Blick darauf zu werfen.
Referenz
https://www.coursera.org/learn/generative-ai-with-llms/lecture/7zFPm/llm-use-cases-and-tasks