Die Erstellung effektiver Prompts für LLMs
Erfordert etwas Experimentieren, aber
Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.
Wie man die Leistung von Sprachmodellen durch Prompt-Engineering-Techniken verbessern kann
Prompt-Engineering ist eine mächtige Technik, die im Bereich der natürlichen Sprachverarbeitung (NLP) verwendet wird, um die Leistung von Sprachmodellen zu verbessern, indem diesen zusätzlicher Kontext, Anweisungen und Informationen zum jeweiligen Auftrag gegeben werden. In diesem Artikel führen wir Sie durch verschiedene Methoden, um effektive Prompts zu erstellen, die dabei helfen können, Ihre NLP-Modelle so zu trainieren, dass sie präzisere, relevantere und vielfältigere Ergebnisse liefern.
Effektive Prompts erstellen
1. Seien Sie klar und prägnant
- Ziel: Stellen Sie sicher, dass Ihr Prompt für das Sprachmodell leicht verständlich ist.
- Umsetzung: Vermeiden Sie die Verwendung von Fachbegriffen oder technischen Ausdrücken, die das Modell verwirren könnten. Halten Sie die Anweisungen direkt und auf den Punkt.
2. Verwenden Sie konkrete Beispiele
- Ziel: Helfen Sie dem Modell, besser zu verstehen, welche Art von Ausgabe erwartet wird.
- Umsetzung: Fügen Sie in Ihrem Prompt konkrete Beispiele hinzu, wie z. B. Umgebung, Charaktere oder Handlungsdetails für Aufgaben zur Erstellung von Geschichten.
3. Variieren Sie die Prompts
- Ziel: Ermöglichen Sie dem Modell, mehr über die Aufgabe zu lernen und vielfältigere Ergebnisse zu erzeugen.
- Umsetzung: Experimentieren Sie mit verschiedenen Stilen, Tönen und Formaten, um zu sehen, wie das Modell darauf reagiert.
4. Testen und verfeinern
- Ziel: Validieren Sie die Wirksamkeit der Prompts und treffen Sie notwendige Anpassungen.
- Umsetzung: Nachdem Sie eine Reihe von Prompts erstellt haben, testen Sie sie auf Ihrem Sprachmodell. Analysieren Sie die Ergebnisse und verfeinern Sie die Prompts anhand von Feedback oder Leistungsmetriken.
5. Nutzen Sie Feedback
- Ziel: Verbessern Sie kontinuierlich die Qualität und Relevanz Ihrer Prompts.
- Umsetzung: Integrieren Sie Nutzerfeedback oder Erkenntnisse aus anderen Quellen, um die Wirksamkeit der Prompts im Laufe der Zeit zu verbessern.
Explizite Anweisungen für bessere Ergebnisse
Beispiel:
- Prompt: Erklären Sie mir die neuesten Fortschritte in großen Sprachmodellen.
- Anweisungen: Zitieren Sie immer Ihre Quellen, die nicht älter als 2020 sind.
Stilisierung für Grundschüler
Erklärung: Präsentieren Sie komplexe Konzepte mit einfacher Sprache und Beispielen, die für Kinder im Bildungsnetzwerk geeignet sind.
Formatierungshinweise
Beispiel:
{
"role": "sentiment_classifier",
"instructions": [
"Für jede Nachricht geben Sie den Prozentsatz der positiven, neutralen und negativen Stimmung an.",
"Beispiele: 'Ich mochte es' -> 70 % positiv, 30 % neutral; 'Es könnte besser sein' -> 0 % positiv, 50 % neutral, 50 % negativ"
],
"examples": [
{
"message": "Ich dachte, es war okay",
"sentiment": [25%, 50%, 25%]
},
{
"message": "Ich habe es geliebt!",
"sentiment": [100%, 0%, 0%]
}
]
}
Rolle-basierte Prompts
Beispiel:
- Prompt: Sie sind ein virtueller Tourguide, der derzeit Touristen um den Eiffelturm auf einer Nachttour führt. Beschreiben Sie den Eiffelturm für Ihr Publikum, wobei Sie dessen Geschichte, die Anzahl der Besucher pro Jahr, die Zeit, die für eine vollständige Tour benötigt wird, und den Grund dafür, warum so viele Menschen diesen Ort jedes Jahr besuchen, abdecken.
Kettenverfahren (Chain of Thought)
Beispiel:
- Prompt: Sie sind ein virtueller Tourguide aus dem Jahr 1901. Ihre Touristen besuchen den Eiffelturm.
- Warum wurde er gebaut?
- Wie lange hat die Bauzeit gedauert?
- Wo wurden die Materialien für seine Konstruktion beschafft?
- Wie viele Besucher hatte der Eiffelturm im Jahr 1900?
- Wie viel Zeit benötigt eine vollständige Tour, und warum besuchen so viele Menschen diesen Ort jedes Jahr?
Selbstkonsistenz
Beispiel:
- Prompt: John fand heraus, dass der Durchschnitt von 15 Zahlen 40 ist. Wenn 10 zu jeder Zahl addiert wird, was ist der neue Mittelwert?
- Anweisungen: Führen Sie den Prompt mehrmals aus und wählen Sie den am häufigsten zurückgegebenen Wert als Antwort aus.
Retrieval-Augmented Generation
Beispiel:
Gegeben folgende Informationen über Temperaturen in Menlo Park:
-
2023-12-11: 52 Grad Fahrenheit
-
2023-12-12: 51 Grad Fahrenheit
-
2023-12-13: 55 Grad Fahrenheit
-
Prompt: Was war die Temperatur in Menlo Park am 12. Dezember 2023?
Programmaided Language Models
Beispiel:
- Prompt: Berechnen Sie: ((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
Reduzierung von überflüssigen Tokens
Beispiel:
- Prompt: Sie sind ein Roboter, der nur JSON ausgibt.
- Anweisungen: Ihre Antwort muss das Feld ‘zip_code’ enthalten.
- Beispielfrage: Was ist die Postleitzahl von Menlo Park?
- Erwartete Antwort: {“zip_code”: “94025”}
Reduzierung von Halluzinationen
Beispiel 1:
- Prompt: Erklären Sie das Konzept der Quantencomputing einem Gymnasiumsschüler.
- Anweisungen: Geben Sie einfache Erklärungen und vermeiden Sie komplexe Fachbegriffe.
Beispiel 2:
- Prompt: Schreiben Sie eine E-Mail an Ihren Vorgesetzten, um über den Projektfortschritt ein Meeting zu beantragen.
- Anweisungen: Verwenden Sie professionelle Sprache, halten Sie einen formellen Ton und fügen Sie konkrete Details zum Projektstatus hinzu.
Beispiel 3:
- Prompt: Erstellen Sie ein Gedicht über die Natur.
- Anweisungen: Konzentrieren Sie sich auf beschreibende Sprache und Bilder, die mit natürlichen Elementen verbunden sind.
Schlussfolgerung
Durch die Einhaltung dieser Leitlinien für Prompt-Engineering können Sie die Leistung Ihrer NLP-Modelle erheblich verbessern. Ob es nun um klare Anweisungen, konkrete Beispiele oder rollebasierte Prompts geht, jede Technik spielt eine entscheidende Rolle dabei, das Modell in Richtung präziserer und relevanterer Ergebnisse zu leiten.
Nützliche Links
- Test: Wie Ollama die Leistung von Intel CPU-Kernen und Effizienten Kernen nutzt
- Wie Ollama parallele Anfragen verarbeitet
- Vergleich der Geschwindigkeit von LLMs
- Vergleich der Zusammenfassungsfähigkeiten von LLMs
- Erkennung logischer Fehlschlüsse mit LLMs
- Meta / llama3: https://llama.meta.com/docs/overview
- Ollama-Modelle-Ordner an einen anderen Ort verschieben
- Vergleich von LLMs: Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 und Phi
- Conda Cheatsheet
- Ollama Cheatsheet
- Docker Cheatsheet
- Markdown Cheatsheet