Scrivere prompt efficaci per i modelli linguistici di grandi dimensioni
Richiede alcuni esperimenti ma
Tuttavia, esistono alcuni approcci comuni per scrivere promemoria efficaci in modo che i modelli linguistici non si confondano cercando di capire cosa si desidera da essi.
Come migliorare le prestazioni dei modelli linguistici utilizzando tecniche di ingegneria dei prompt
L’ingegneria dei prompt è una tecnica potente utilizzata nel processing del linguaggio naturale (NLP) per migliorare le prestazioni dei modelli linguistici fornendo loro ulteriore contesto, orientamento e informazioni sul compito in questione. Questo articolo ti guiderà attraverso diversi metodi per creare prompt efficaci che possono aiutare il tuo modello NLP a generare output più accurati, rilevanti e diversificati.
Creare prompt efficaci
1. Sii chiaro e conciso
- Obiettivo: Assicurati che il tuo prompt sia facilmente comprensibile per il modello linguistico.
- Implementazione: Evita l’uso di gergo o termini tecnici che potrebbero confondere il modello. Mantieni le istruzioni semplici e dirette.
2. Utilizza esempi specifici
- Obiettivo: Aiuta il modello a comprendere meglio il tipo di output richiesto.
- Implementazione: Includi esempi specifici nel tuo prompt, ad esempio contesto, personaggi o dettagli della trama per compiti di generazione di storie.
3. Varia i prompt
- Obiettivo: Consentire al modello di imparare di più sul compito e produrre output diversificati.
- Implementazione: Sperimenta con diversi stili, toni e formati per vedere come il modello risponde.
4. Testa e raffina
- Obiettivo: Verificare l’efficacia dei prompt e apportare le modifiche necessarie.
- Implementazione: Dopo aver creato un insieme di prompt, testali sul tuo modello linguistico. Analizza i risultati e raffina i prompt in base al feedback o alle metriche di prestazione.
5. Utilizza il feedback
- Obiettivo: Migliorare continuamente la qualità e la rilevanza dei tuoi prompt.
- Implementazione: Incorpora il feedback degli utenti o le informazioni da altre fonti per migliorare l’efficacia dei prompt nel tempo.
Istruzioni esplicite per risultati migliori
Esempio:
- Prompt: Spiega i progressi più recenti nei modelli linguistici di grandi dimensioni a me.
- Istruzioni: Cita sempre le fonti, mai più vecchie del 2020.
Stilizzazione per studenti elementari
Spiegazione: Presenta concetti complessi utilizzando un linguaggio semplice e esempi riconoscibili adatti alle reti educative per bambini.
Linee guida per la formattazione
Esempio:
{
"role": "sentiment_classifier",
"instructions": [
"Per ogni messaggio, fornisce la percentuale di sentimenti positivi, neutri e negativi.",
"Esempi: 'Ho apprezzato' -> 70% positivo, 30% neutro; 'Potrebbe essere migliore' -> 0% positivo, 50% neutro, 50% negativo"
],
"examples": [
{
"message": "Pensavo che fosse okay",
"sentiment": [25%, 50%, 25%]
},
{
"message": "L'ho adorato!",
"sentiment": [100%, 0%, 0%]
}
]
}
Prompt basati su ruoli
Esempio:
- Prompt: Sei una guida turistica virtuale che sta conducendo i turisti intorno alla Torre Eiffel durante una visita notturna. Descrivi la Torre Eiffel al tuo pubblico, coprendo la sua storia, il numero di visitatori annuali, la durata di una visita completa e il motivo per cui così tante persone visitano questo luogo ogni anno.
Tecnica della catena di pensiero
Esempio:
- Prompt: Sei una guida turistica virtuale del 1901. I tuoi turisti stanno visitando la Torre Eiffel.
- Perché è stata costruita?
- Quanto tempo è durata la sua costruzione?
- Da dove provengono i materiali utilizzati per la sua costruzione?
- Qual è il numero annuale di visitatori negli anni ‘900?
- Quanto tempo dura una visita completa e perché così tante persone visitano questo luogo ogni anno?
Coerenza interna
Esempio:
- Prompt: John ha scoperto che la media di 15 numeri è 40. Se si aggiunge 10 a ogni numero, qual è la nuova media?
- Istruzioni: Esegui il prompt diverse volte e seleziona il valore più comune restituito come risposta.
Generazione potenziata da informazioni recuperate
Esempio:
Dato il seguente informazioni sulle temperature a Menlo Park:
-
2023-12-11: 52 gradi Fahrenheit
-
2023-12-12: 51 gradi Fahrenheit
-
2023-12-13: 55 gradi Fahrenheit
-
Prompt: Qual era la temperatura a Menlo Park il 12 dicembre 2023?
Modelli linguistici assistiti da programmi
Esempio:
- Prompt: Calcola: ((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
Limitare i token superflui
Esempio:
- Prompt: Sei un robot che emette solo JSON.
- Istruzioni: La tua risposta deve includere il campo ‘zip_code’.
- Domanda di esempio: Qual è il codice postale di Menlo Park?
- Risposta attesa: {“zip_code”: “94025”}
Ridurre le illusioni
Esempio 1:
- Prompt: Spiega il concetto di calcolo quantistico a uno studente delle scuole superiori.
- Istruzioni: Fornisci spiegazioni semplici e evita il gergo complesso.
Esempio 2:
- Prompt: Scrivi un’email al tuo capo per richiedere un incontro riguardo lo stato del progetto.
- Istruzioni: Utilizza un linguaggio professionale, mantieni un tono formale e includi dettagli specifici sullo stato del progetto.
Esempio 3:
- Prompt: Genera un poema sulla natura.
- Istruzioni: Concentrati sul linguaggio descrittivo e sull’immaginario legati agli elementi naturali.
Conclusione
Seguendo queste linee guida per l’ingegneria dei prompt, puoi migliorare significativamente le prestazioni dei tuoi modelli NLP. Che si tratti di istruzioni chiare, di esempi specifici o di prompt basati su ruoli, ogni tecnica svolge un ruolo cruciale nell’orientare il modello verso output più accurati e rilevanti.
Link utili
- Test: Come Ollama utilizza le prestazioni del processore Intel e i core efficienti
- Come Ollama gestisce le richieste parallele
- Confronto velocità LLM
- Confronto capacità di sintesi LLM
- Rilevamento di fallacie logiche con LLM
- Meta / llama3: https://llama.meta.com/docs/overview
- Spostare la cartella dei modelli Ollama in una posizione diversa
- Confronto LLM: Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 e Phi
- Scheda di riferimento per Conda
- Scheda di riferimento per Ollama
- Scheda di riferimento per Docker
- Scheda di riferimento per Markdown