Att skriva effektiva promptar för LLMs
Kräver lite experimenterande men
Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.

Hur man förbättrar språkmodellens prestanda med hjälp av prompt-engineering-tekniker
Prompt-engineering är en kraftfull teknik som används inom naturlig språkbehandling (NLP) för att förbättra språkmodellers prestanda genom att ge dem ytterligare kontext, vägledning och information om uppgiften. Den här artikeln guidar dig genom olika metoder för att skapa effektiva instruktioner som kan hjälpa din NLP-modell att generera mer exakta, relevanta och varierade resultat.
Att skapa effektiva instruktioner
1. Var tydlig och konkret
- Syfte: Se till att din instruktion är lättförståelig för språkmodellen.
- Implementering: Undvik att använda facktermer eller tekniska termer som kan förvirra modellen. Håll instruktionerna raka och till punkt.
2. Använd specifika exempel
- Syfte: Hjälp modellen att bättre förstå vilken typ av resultat som förväntas.
- Implementering: Inkludera specifika exempel i din instruktion, som miljö, karaktärer eller handlingsspecifika detaljer för berättelseskrivningsuppgifter.
3. Varyera instruktionerna
- Syfte: Möjliggöra för modellen att lära sig mer om uppgiften och producera varierade resultat.
- Implementering: Experimentera med olika stilar, tonfall och format för att se hur modellen svarar.
4. Testa och förfina
- Syfte: Validera instruktionernas effektivitet och gör nödvändiga justeringar.
- Implementering: Efter att ha skapat ett antal instruktioner, testa dem på din språkmodell. Analysera resultaten och förfina instruktionerna baserat på feedback eller prestandamått.
5. Använd feedback
- Syfte: Kontinuerligt förbättra kvaliteten och relevansen för dina instruktioner.
- Implementering: Inkorporera användarfeedback eller insikter från andra källor för att förbättra instruktionernas effektivitet över tid.
Explicita instruktioner för bättre resultat
Exempel:
- Instruktion: Förklara de senaste framstegen inom stora språkmodeller för mig.
- Instruktioner: Citerar alltid dina källor, aldrig äldre än 2020.
Stilisering för grundskoleelever
Förklaring: Presentera komplexa begrepp med enkelt språk och relaterbara exempel lämpliga för barns utbildningsnätverk.
Formateringsriktlinjer
Exempel:
{
"roll": "känsloklassificerare",
"instruktioner": [
"För varje meddelande, ange procentandelen positiv, neutral och negativ känsla.",
"Exempel: 'Jag gillade det' -> 70% positiv, 30% neutral; 'Det kunde vara bättre' -> 0% positiv, 50% neutral, 50% negativ"
],
"exempel": [
{
"meddelande": "Jag tyckte det var okej",
"känsla": [25%, 50%, 25%]
},
{
"meddelande": "Jag älskade det!",
"känsla": [100%, 0%, 0%]
}
]
}
Rollbaserade instruktioner
Exempel:
- Instruktion: Du är en virtuell guide som just nu leder turister runt Eiffeltornet på en natttur. Beskriv Eiffeltornet för din publik, inklusive dess historia, antalet besökare varje år, tiden det tar för en komplett tur och varför så många människor besöker denna plats årligen.
Kedja av tankegångar
Exempel:
- Instruktion: Du är en virtuell guide från år 1901. Dina turister besöker Eiffeltornet.
- Varför byggdes det?
- Hur länge tog det att bygga?
- Varifrån kom materialen för dess konstruktion?
- Vad är det årliga antalet besökare på 1900-talet?
- Hur lång tid tar en komplett tur, och varför besöker så många människor denna plats varje år?
Självkonsistens
Exempel:
- Instruktion: John upptäckte att medelvärdet av 15 tal är 40. Om 10 läggs till varje tal, vad är det nya medelvärdet?
- Instruktioner: Kör instruktionen flera gånger och välj det mest frekvent återkommande värdet som svar.
Hämtningsförstärkt generering
Exempel:
Med följande information om temperaturer i Menlo Park:
-
2023-12-11: 52 grader Fahrenheit
-
2023-12-12: 51 grader Fahrenheit
-
2023-12-13: 55 grader Fahrenheit
-
Instruktion: Vad var temperaturen i Menlo Park den 12 december 2023?
Programunderstödda språkmodeller
Exempel:
- Instruktion: Beräkna: ((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
Begränsning av extratoken
Exempel:
- Instruktion: Du är en robot som endast utmatar JSON.
- Instruktioner: Ditt svar måste innehålla fältet ‘postnummer’.
- Exempelfråga: Vad är postnumret för Menlo Park?
- Förväntat svar: {“postnummer”: “94025”}
Minska hallucinationer
Exempel 1:
- Instruktion: Förklara begreppet kvantdatorer för en gymnasieelev.
- Instruktioner: Ge enkla förklaringar och undvik komplicerat fackspråk.
Exempel 2:
- Instruktion: Skriv ett mejl till din chef där du ber om ett möte om projektets framsteg.
- Instruktioner: Använd professionellt språk, behåll ett formellt tonfall och inkludera specifika detaljer om projektets status.
Exempel 3:
- Instruktion: Generera en dikt om naturen.
- Instruktioner: Fokusera på beskrivande språk och bilder relaterade till naturliga element.
Slutsats
Genom att följa dessa riktlinjer för prompt-engineering kan du betydligt förbättra prestandan för dina NLP-modeller. Oavsett om det är genom tydliga instruktioner, specifika exempel eller rollbaserade instruktioner, spelar varje teknik en avgörande roll för att guida modellen mot mer exakta och relevanta resultat.
Användbara länkar
- Test: Hur Ollama använder Intel CPU-prestanda och effektiva kärnor
- Hur Ollama hanterar parallella förfrågningar
- LLM-hastighetsjämförelse
- LLM-sammanfattningsjämförelse
- Detektion av logiska fallgropar med LLMs
- Meta / llama3: https://llama.meta.com/docs/overview
- Flytta Ollama-modellmappen till en annan plats
- LLM-jämförelse: Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 och Phi
- Conda Cheatsheet
- Ollama cheatsheet
- Docker Cheatsheet
- Markdown Cheatsheet