Escrever prompts eficazes para LLMs
Exige alguma experimentação, mas
Ainda assim, existem algumas abordagens comuns sobre como escrever bons prompts para que os LLMs não fiquem confusos ao tentar entender o que se espera deles.

Como Melhorar o Desempenho de Modelos de Linguagem Usando Técnicas de Engenharia de Prompts
A engenharia de prompts é uma técnica poderosa utilizada no processamento de linguagem natural (PLN) para aprimorar o desempenho de modelos de linguagem, fornecendo-lhes contexto adicional, orientações e informações sobre a tarefa em questão. Este artigo irá guiá-lo por vários métodos para criar prompts eficazes que podem ajudar seu modelo de PLN a gerar saídas mais precisas, relevantes e diversificadas.
Criando Prompts Eficazes
1. Seja Claro e Conciso
- Objetivo: Garantir que seu prompt seja facilmente compreendido pelo modelo de linguagem.
- Implementação: Evite usar jargões ou termos técnicos que possam confundir o modelo. Mantenha as instruções diretas e objetivas.
2. Use Exemplos Específicos
- Objetivo: Ajudar o modelo a entender melhor qual tipo de saída é esperado.
- Implementação: Inclua exemplos específicos em seu prompt, como cenários, personagens ou detalhes de enredo para tarefas de geração de histórias.
3. Varie os Prompts
- Objetivo: Permitir que o modelo aprenda mais sobre a tarefa e produza saídas diversificadas.
- Implementação: Experimente diferentes estilos, tons e formatos para ver como o modelo responde.
4. Teste e Refine
- Objetivo: Validar a eficácia do prompt e fazer os ajustes necessários.
- Implementação: Após criar um conjunto de prompts, teste-os em seu modelo de linguagem. Analise os resultados e refine os prompts com base no feedback ou nas métricas de desempenho.
5. Use Feedback
- Objetivo: Melhorar continuamente a qualidade e a relevância dos seus prompts.
- Implementação: Incorpore feedback dos usuários ou insights de outras fontes para aprimorar a eficácia dos prompts ao longo do tempo.
Instruções Explícitas para Melhores Resultados
Exemplo:
- Prompt: Explique-me os últimos avanços em grandes modelos de linguagem.
- Instruções: Sempre cite suas fontes, nunca mais antigas que 2020.
Estilização para Alunos do Ensino Fundamental
Explicação: Apresente conceitos complexos usando linguagem simples e exemplos relacionáveis adequados para redes educacionais infantis.
Diretrizes de Formatação
Exemplo:
{
"role": "classificador_de_sentimento",
"instructions": [
"Para cada mensagem, forneça a porcentagem de sentimento positivo, neutro e negativo.",
"Exemplos: 'Gostei' -> 70% positivo, 30% neutro; 'Poderia ser melhor' -> 0% positivo, 50% neutro, 50% negativo"
],
"examples": [
{
"message": "Achei que estava ok",
"sentiment": [25%, 50%, 25%]
},
{
"message": "Adorei!",
"sentiment": [100%, 0%, 0%]
}
]
}
Prompts Baseados em Papéis
Exemplo:
- Prompt: Você é um guia turístico virtual caminhando atualmente com os turistas ao redor da Torre Eiffel em um tour noturno. Descreva a Torre Eiffel ao seu público, abordando sua história, o número de visitantes por ano, o tempo necessário para um tour completo e por que tantas pessoas visitam este lugar anualmente.
Técnica de Cadeia de Pensamento
Exemplo:
- Prompt: Você é um guia turístico virtual de 1901. Seus turistas estão visitando a Torre Eiffel.
- Por que foi construída?
- Quanto tempo demorou para construir?
- Onde foram obtidos os materiais para sua construção?
- Qual é o número anual de visitantes na década de 1900?
- Quanto tempo leva um tour completo e por que tantas pessoas visitam este lugar a cada ano?
Auto-Consistência
Exemplo:
- Prompt: John descobriu que a média de 15 números é 40. Se 10 for adicionado a cada número, qual é a nova média?
- Instruções: Execute o prompt várias vezes e selecione o valor mais comumente retornado como resposta.
Geração Aumentada por Recuperação
Exemplo:
Dadas as seguintes informações sobre temperaturas em Menlo Park:
-
2023-12-11: 52 graus Fahrenheit
-
2023-12-12: 51 graus Fahrenheit
-
2023-12-13: 55 graus Fahrenheit
-
Prompt: Qual foi a temperatura em Menlo Park em 12 de dezembro de 2023?
Modelos de Linguagem Auxiliados por Programas
Exemplo:
- Prompt: Calcule: ((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
Limitando Tokens Extravagantes
Exemplo:
- Prompt: Você é um robô que só exibe JSON.
- Instruções: Sua resposta deve incluir o campo ‘zip_code’.
- Exemplo de Pergunta: Qual é o código postal de Menlo Park?
- Resposta Esperada: {“zip_code”: “94025”}
Reduzindo Alucinações
Exemplo 1:
- Prompt: Explique o conceito de computação quântica para um estudante do ensino médio.
- Instruções: Forneça explicações simples e evite jargões complexos.
Exemplo 2:
- Prompt: Escreva um e-mail para seu chefe solicitando uma reunião sobre o progresso do projeto.
- Instruções: Use linguagem profissional, mantenha um tom formal e inclua detalhes específicos sobre o status do projeto.
Exemplo 3:
- Prompt: Gere um poema sobre a natureza.
- Instruções: Foque em linguagem descritiva e imagens relacionadas a elementos naturais.
Conclusão
Seguindo estas diretrizes para engenharia de prompts, você pode aprimorar significativamente o desempenho dos seus modelos de PLN. Seja através de instruções claras, exemplos específicos ou prompts baseados em papéis, cada técnica desempenha um papel crucial em orientar o modelo para saídas mais precisas e relevantes.
Links Úteis
- Teste: Como o Ollama está usando o Desempenho do CPU Intel e Núcleos Eficientes
- Como o Ollama Lida com Solicitações Paralelas
- Comparação de Velocidade de LLM
- Comparação de Resumação de LLM
- Detecção de Falácias Lógicas com LLMs
- Meta / llama3: https://llama.meta.com/docs/overview
- Mover a pasta de Modelos do Ollama para uma localização diferente
- Comparação de LLMs: Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 e Phi
- Guia Rápido do Conda
- Guia Rápido do Ollama
- Guia Rápido do Docker
- Guia Rápido do Markdown