12 Prompt-Tipps für große Models

12 Prompt-Tipps für große Models

Großes Modell  maschineller KI-Lerndaten KI-Mining  Veröffentlicht in Anhui 21.08.2023 11:33 

Hint Engineering kann als eine Kunstform beschrieben werden, Eingabeanforderungen für große Sprachmodelle (LLMs) zu erstellen, um gewünschte Ausgaben zu erzielen. Hier sind 12 verschiedene Techniken zum Erstellen einer einzelnen oder einer Reihe von Eingabeaufforderungen.

Tipps von weniger zu mehr


Beim Argumentationsprozess handelt es sich um das Ziehen von Schlussfolgerungen auf der Grundlage von Beweisen und Überlegungen. Im Gegenzug können Schlussfolgerungen gezogen werden, indem dem LLM Beispiele für die Argumentation und Verwendung von Beweisen zur Verfügung gestellt werden. Daher wird eine neuartige Aufforderungsstrategie entwickelt, die als Wenig-zu-Viele-Aufforderung bezeichnet wird. Dieser Ansatz basiert auf folgenden Strategien:

1. Zerlegen Sie ein komplexes Problem in eine Reihe einfacherer Teilprobleme und lösen Sie dann jedes Teilproblem.

2. Die Lösung jedes Teilproblems wird durch die Antworten auf zuvor gelöste Teilprobleme erleichtert .

Daher ist die Wenig-zu-Viele-Eingabeaufforderung eine Technik, die eine schrittweise Abfolge von Eingabeaufforderungen verwendet, um zu einer endgültigen Schlussfolgerung zu gelangen

Selbstantwortaufforderung

Betrachtet man das Bild unten, wird klar, dass die Selbstfrage-Eingabeaufforderung eine Weiterentwicklung der Direkt- und Kettendenken-Eingabeaufforderung ist.

Das Interessante an der Selbstfrage-Eingabeaufforderung ist, dass die LLM-Argumentation explizit gezeigt wird und die LLM die Frage auch in kleinere Folgefragen aufteilt.

Der LLM weiß, wann die endgültige Antwort erreicht wurde, und kann von den nächsten Schritten der Zwischenantwort zur endgültigen Antwort übergehen.

Bild

Meta-Hinweise

Das Hauptprinzip von Meta-Hinweisen besteht darin, den Agenten dazu zu bringen, über seine eigene Leistung nachzudenken und seine Anweisungen entsprechend zu ändern. Verwenden Sie auch einen allgemeinen Meta-Hinweis.

Kette von Gedankentipps

Als Menschen zerlegen wir intuitiv eine größere Aufgabe oder ein größeres Problem in Teilaufgaben und verketten diese Teilaufgaben dann miteinander. Verwenden Sie die Ausgabe einer Unteraufgabe als Eingabe der nächsten Unteraufgabe.

Durch die Verwendung der Methode der Denkkettenhinweise in OpenAI Playground, also der Bereitstellung konkreter Beispiele für Denkketten als Leitfaden, ist es möglich zu zeigen, wie große Sprachmodelle komplexe Denkfähigkeiten entwickeln können.

Untersuchungen haben gezeigt, dass ausreichend große Sprachmodelle bei entsprechender Aufforderung die Fähigkeit zum spontanen Denken ermöglichen können .

ReAct-Tipps

Im Vergleich zum Menschen ermöglicht die enge Synergie zwischen Denken und Handeln es dem Menschen, schnell neue Aufgaben zu erlernen und wirkungsvoll zu denken und Entscheidungen zu treffen. Wir tun dies auch angesichts unvorhergesehener Umstände, Informationen oder Unsicherheiten.

Groß angelegte Sprachmodelle haben beeindruckende Ergebnisse in Bezug auf das Denken in der Gedankenkette (CoT) sowie Aufforderungen und Maßnahmen (Erstellung von Aktionsplänen) gezeigt.

Die Idee von ReAct besteht darin, Denken und Handeln zu kombinieren. Inferenz ermöglicht es Modellen, Aktionspläne zu initiieren, zu verfolgen und zu aktualisieren, während Aktionen das Sammeln zusätzlicher Informationen aus externen Quellen ermöglichen.

Die Kombination dieser Ideen wird ReAct genannt und auf eine Vielzahl von Sprach- und Entscheidungsaufgaben angewendet, um ihre Wirksamkeit im Vergleich zu modernsten Basismethoden zu demonstrieren und die menschliche Interpretierbarkeit und Glaubwürdigkeit zu verbessern.

Symbolisches Denken und PAL (Probabilistic Abstraction Latent Dirichlet Allocation)

LLMs sollten in der Lage sein, nicht nur mathematisches Denken, sondern auch symbolisches Denken durchzuführen, einschließlich des Denkens in Bezug auf Farben und Objekttypen. Betrachten Sie die folgenden Fragen:

I have a chair, two potatoes, a cauliflower, a lettuce head, two tables, a cabbage, two onions, and three fridges. How many vegetables do I have?

LLMs sollten in der Lage sein, die Eingabe in ein Wörterbuch mit nach ihrer Anzahl sortierten Entitäten und Werten umzuwandeln und gleichzeitig nicht-pflanzliche Entitäten herauszufiltern.

Letztendlich ist die Antwort einfach die Summe der Wörterbuchwerte, unterhalb des vom LLM ausgegebenen PAL-Ergebnisses:

# note: I'm not counting the chair, tables, or fridges   vegetables_to_count = {
   
          'potato': 2,       'cauliflower': 1,       'lettuce head': 1,       'cabbage': 1,       'onion': 2   }   answer = sum(vegetables_to_count.values())

Iterationshinweis

In letzter Zeit hat sich der Schwerpunkt von der LLM-Feinabstimmung auf das Augmented Hint Engineering verlagert. Stellen Sie sicher, dass die Eingabeaufforderungen kontextbezogen sind und einige Beispieltrainingsbeispiele und einen Gesprächsverlauf enthalten.

Stellen Sie durch einen iterativen Prozess sicher, dass Eingabeaufforderungen kontextbezogene Informationen enthalten.

Iterative Eingabeaufforderungen sollten eine kontextbezogene Denkkette etablieren und die Entstehung irrelevanter Fakten und Illusionen ausschließen. Interaktives Kontextbewusstsein und kontextbezogene Hinweise.

Bild

Wenn man das Bild oben betrachtet, sind bei C1 und C2 Kenntnisse sehr wichtig, um die Frage genau zu beantworten. Die Methode der iterativen Hinweise umfasst starke Elemente von Hinweisen und Pipelines der Denkkette.

Sequenzaufforderung

Sequentielle Hinweise berücksichtigen die Möglichkeit, LLMs zum Aufbau zuverlässiger Empfehlungsgeber zu verwenden. In der Regel werden Empfehlungssysteme mit einer Pipeline-Architektur entwickelt, die mehrstufige Prozesse zur Kandidatengenerierung (Abruf relevanterer Elemente) und Ranking (höheres Ranking relevanter Elemente) umfasst.

Sequentielles Hinting konzentriert sich aufgrund der hohen Betriebskosten von LLM bei großen Kandidatenmengen auf die Ranking-Phase von Empfehlungssystemen.

Die Ranking-Leistung hängt von den abgerufenen Top-Kandidatenelementen ab, was sich besser für die Untersuchung von Unterschieden in der LLM-Empfehlungsfähigkeit eignet.

Bild

Selbstkonsistenz

Im Gegensatz zum Denken in Gedankenketten nutzt die Selbstkonsistenz die Intuition aus : Komplexe Denkprobleme haben oft mehrere unterschiedliche Gedankenwege, die zu ihrer einzigen richtigen Antwort führen.

Bild

Der selbstkonsistente Ansatz besteht aus drei Schritten:

  1. Fordern Sie den LLM auf, den Argumentationsteil der Gedankenkette (CoT) zu generieren.

  2. Generieren Sie mehrere Inferenzpfade .

  3. Für die endgültige Antwort wird die konsistenteste Ausgabe ausgewählt.

Der von selbstkonsistenten Ansätzen gewählte Ansatz kann zu zusätzlichem Overhead führen. Insbesondere wenn jeder Schritt des CoT den Aufruf externer Tools und APIs umfasst, äußert sich der Overhead in Form zusätzlicher Kosten und Hin- und Rücklaufzeiten für die Fertigstellung.

Automatisiertes Denken und Werkzeuggebrauch (ART)

Es wurde gezeigt, dass Hinweise in Gedankenketten bei LLMs komplexe und sequenzielle Überlegungen hervorrufen können. Außerdem können für jeden Schritt externe Tools verwendet werden, um die von einem bestimmten Knoten generierte Ausgabe zu verbessern.

Die Prämisse bei der Entwicklung dieser Methoden besteht darin, eingefrorene große Sprachmodelle (LLMs) zu nutzen, um zuvor trainierte Modelle mit Zeitstempel zu erweitern.

Automated Reasoning and Tool Use (ART) ist ein Framework, das auch eingefrorene Modelle nutzt, um Zwischenschritte für das Denken als Programme zu generieren.

Der Ansatz von ART erinnert Agenten stark an das Prinzip, ein Problem in Schritte zu zerlegen und Werkzeuge zu verwenden, um jeden Zerlegungsschritt zu bewältigen.

Bei Verwendung von ART zerlegt das eingefrorene LLM Instanzen neuer Aufgaben in Schritte und manipuliert sie gegebenenfalls mithilfe externer Tools.

ART ist ein feinabstimmungsfreier Ansatz zur Automatisierung mehrstufiger Inferenz sowie zur Automatisierung der Werkzeugauswahl und -nutzung.

generiertes Wissen

Das Prinzip des generativen Wissens besteht darin, dass Wissen zum Zeitpunkt des Denkens integriert werden kann. Dies zeigt, dass Referenzwissen anstelle einer Feinabstimmung des Modells genutzt werden kann.

Getestet anhand verschiedener Datensätze, vernünftiger Überlegungen usw.

Das Prinzip der Wissensgenerierung wird durch die Entwicklung von Technologien wie RAG, Pipelining etc. unterstützt.

Supongo que te gusta

Origin blog.csdn.net/sinat_37574187/article/details/132518024
Recomendado
Clasificación