Escrevendo prompts eficazes para LLMs
Requer algum experimento, mas
Ainda assim, existem algumas abordagens comuns para escrever prompts eficazes, de modo que os LLMs não fiquem confusos ao tentar entender o que você deseja.
Como Melhorar o Desempenho dos Modelos de Linguagem Usando Técnicas de Engenharia de Prompt
A engenharia de prompt é uma técnica poderosa utilizada no processamento de linguagem natural (NLP) para melhorar o desempenho dos modelos de linguagem, fornecendo-lhes mais contexto, orientação e informações sobre a tarefa em questão. Este artigo vai guiá-lo por vários métodos para criar prompts eficazes que podem ajudar seu modelo de NLP a gerar saídas mais precisas, relevantes e diversas.
Criando Prompts Eficazes
1. Seja claro e conciso
- Objetivo: Garanta que seu prompt seja facilmente compreensível pelo modelo de linguagem.
- Implementação: Evite o uso de jargões ou termos técnicos que possam confundir o modelo. Mantenha as instruções diretas e ao ponto.
2. Use exemplos específicos
- Objetivo: Ajudar o modelo a compreender melhor o tipo de saída esperada.
- Implementação: Inclua exemplos específicos em seu prompt, como cenários, personagens ou detalhes da trama para tarefas de geração de histórias.
3. Varie os prompts
- Objetivo: Permitir que o modelo aprenda mais sobre a tarefa e produza saídas diversas.
- Implementação: Experimente com diferentes estilos, tons e formatos para ver como o modelo responde.
4. Teste e refine
- Objetivo: Validar a eficácia dos prompts e fazer ajustes necessários.
- Implementação: Após criar um conjunto de prompts, teste-os no seu modelo de linguagem. Analise os resultados e refine os prompts com base em feedback ou métricas de desempenho.
5. Use feedback
- Objetivo: Melhorar continuamente a qualidade e relevância dos seus prompts.
- Implementação: Incorporar feedback do usuário ou insights de outras fontes para melhorar a eficácia dos prompts ao longo do tempo.
Instruções Explícitas para Melhores Resultados
Exemplo:
- Prompt: Explique as últimas avanços nos modelos de linguagem grandes para mim.
- Instruções: Sempre cite suas fontes, nunca mais antigas que 2020.
Estilização para Estudantes do Ensino Fundamental
Explicação: Apresente conceitos complexos usando linguagem simples e exemplos relacionáveis adequados para redes educacionais infantis.
Diretrizes de Formatação
Exemplo:
{
"role": "sentiment_classifier",
"instructions": [
"Para cada mensagem, forneça a porcentagem de sentimento positivo, neutro e negativo.",
"Exemplos: 'Gostei dele' -> 70% positivo, 30% neutro; 'Poderia ser melhor' -> 0% positivo, 50% neutro, 50% negativo"
],
"examples": [
{
"message": "Achei que estava okay",
"sentiment": [25%, 50%, 25%]
},
{
"message": "Adorei!",
"sentiment": [100%, 0%, 0%]
}
]
}
Prompts Baseados em Papéis
Exemplo:
- Prompt: Você é um guia turístico virtual que está caminhando com os turistas em volta da Torre Eiffel em uma tour noturna. Descreva a Torre Eiffel para seu público, abordando sua história, número de visitantes por ano, tempo necessário para uma tour completa e por que tantas pessoas visitam esse local anualmente.
Técnica de Cadeia de Pense
Exemplo:
- Prompt: Você é um guia turístico virtual de 1901. Seus turistas estão visitando a Torre Eiffel.
- Por que foi construída?
- Quanto tempo levou para construí-la?
- De onde foram obtidos os materiais para sua construção?
- Qual é o número anual de visitantes nos anos 1900?
- Quanto tempo leva uma tour completa e por que tantas pessoas visitam esse local todos os anos?
Autoconsistência
Exemplo:
- Prompt: John descobriu que a média de 15 números é 40. Se 10 for adicionado a cada número, qual é a nova média?
- Instruções: Execute o prompt várias vezes e selecione o valor mais comumente retornado para a resposta.
Geração Aumentada com Recuperação
Exemplo:
Dado as seguintes informações sobre temperaturas em Menlo Park:
-
2023-12-11: 52 graus Fahrenheit
-
2023-12-12: 51 graus Fahrenheit
-
2023-12-13: 55 graus Fahrenheit
-
Prompt: Qual era a temperatura em Menlo Park em 12 de dezembro de 2023?
Modelos de Linguagem Ajudados por Programas
Exemplo:
- Prompt: Calcule: ((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
Limitando Tokens Extraneos
Exemplo:
- Prompt: Você é um robô que só produz JSON.
- Instruções: Sua resposta deve incluir o campo ‘zip_code’.
- Exemplo de Pergunta: Qual é o código postal de Menlo Park?
- Resposta Esperada: {“zip_code”: “94025”}
Reduzindo Alucinações
Exemplo 1:
- Prompt: Explique o conceito de computação quântica a um estudante do ensino médio.
- Instruções: Forneça explicações simples e evite jargões complexos.
Exemplo 2:
- Prompt: Escreva um e-mail para seu chefe solicitando uma reunião sobre o progresso do projeto.
- Instruções: Use linguagem profissional, mantenha um tom formal e inclua detalhes específicos sobre o status do projeto.
Exemplo 3:
- Prompt: Gere um poema sobre a natureza.
- Instruções: Foque em linguagem descritiva e imagens relacionadas a elementos naturais.
Conclusão
Ao seguir estas diretrizes para engenharia de prompt, você pode melhorar significativamente o desempenho de seus modelos de NLP. Seja por meio de instruções claras, exemplos específicos ou prompts baseados em papéis, cada técnica desempenha um papel crucial na orientação do modelo para saídas mais precisas e relevantes.
Links Úteis
- Teste: Como Ollama está usando o desempenho do processador Intel e núcleos eficientes
- Como Ollama Lida com Pedidos Paralelos
- Comparação de Velocidade de LLM
- Comparação de Sumarização de LLM
- Detecção de Falácias Lógicas com LLMs
- Meta / llama3: https://llama.meta.com/docs/overview
- Mover a pasta de modelos Ollama para uma localização diferente
- Comparação de LLMs: Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 e Phi
- Dica rápida de Conda
- Dica rápida de Ollama
- Dica rápida de Docker
- Dica rápida de Markdown