Guia Rápido do Ollama
Compilei alguns para uso futuro...
Aqui está a lista e exemplos dos comandos mais úteis do Ollama (folha de dicas dos comandos do Ollama) Compilei há algum tempo. Espero que seja útil para você useful to you.
Este cheatsheet do Ollama se concentra em comandos da linha de comando (CLI), gerenciamento de modelos e personalização
Instalação
- Opção 1: Faça o download do site
- Visite ollama.com e faça o download do instalador para seu sistema operacional (Mac, Linux ou Windows).
- Opção 2: Instale via linha de comando
- Para usuários de Mac e Linux, use o comando:
curl https://ollama.ai/install.sh | sh
- Siga as instruções na tela e insira sua senha se solicitado[3].
- Para usuários de Mac e Linux, use o comando:
Requisitos do Sistema
- Sistema Operacional: Mac ou Linux (versão para Windows em desenvolvimento)
- Memória (RAM): Mínimo 8GB, recomendado 16GB ou mais
- Armazenamento: Pelo menos ~10GB de espaço livre
- Processador: Um CPU relativamente moderno (dos últimos 5 anos)[3].
Comandos Básicos do CLI do Ollama
Comando | Descrição |
---|---|
ollama serve |
Inicia o Ollama no seu sistema local. |
ollama create <new_model> |
Cria um novo modelo a partir de um existente para personalização ou treinamento. |
ollama show <model> |
Exibe detalhes sobre um modelo específico, como sua configuração e data de liberação. |
ollama run <model> |
Executa o modelo especificado, tornando-o pronto para interação. |
ollama pull <model> |
Baixa o modelo especificado para seu sistema. |
ollama list |
Lista todos os modelos baixados. |
ollama ps |
Mostra os modelos que estão atualmente em execução. |
ollama stop <model> |
Para o modelo especificado que está em execução. |
ollama rm <model> |
Remove o modelo especificado do seu sistema. |
ollama help |
Fornece ajuda sobre qualquer comando. |
Gerenciamento de Modelos
-
Baixar um Modelo:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Este comando baixa o modelo especificado (por exemplo, Gemma 2B) para seu sistema.
-
Executar um Modelo:
ollama run qwen2.5:32b-instruct-q3_K_S
Este comando inicia o modelo especificado e abre um REPL interativo para interação.
-
Listar Modelos:
ollama list
Este comando lista todos os modelos que foram baixados para seu sistema.
-
Parar um Modelo:
ollama stop llama3.1:8b-instruct-q8_0
Este comando para o modelo especificado que está em execução.
Personalização de Modelos
-
Definir Prompt do Sistema: Dentro do REPL do Ollama, você pode definir um prompt do sistema para personalizar o comportamento do modelo:
>>> /set system Para todas as perguntas feitas, responda em inglês simples evitando o máximo possível o jargão técnico >>> /save ipe >>> /bye
Em seguida, execute o modelo personalizado:
ollama run ipe
Isso define um prompt do sistema e salva o modelo para uso futuro.
-
Criar um Arquivo de Modelo Personalizado: Crie um arquivo de texto (por exemplo,
custom_model.txt
) com a seguinte estrutura:FROM llama3.1 SYSTEM [Suas instruções personalizadas aqui]
Em seguida, execute:
ollama create mymodel -f custom_model.txt ollama run mymodel
Isso cria um modelo personalizado com base nas instruções no arquivo[3].
Usando o Ollama com Arquivos
-
Resumir o Texto de um Arquivo:
ollama run llama3.2 "Resuma o conteúdo deste arquivo em 50 palavras." < input.txt
Este comando resumirá o conteúdo de
input.txt
usando o modelo especificado. -
Registrar as Respostas do Modelo em um Arquivo:
ollama run llama3.2 "Me conte sobre energias renováveis." > output.txt
Este comando salva a resposta do modelo em
output.txt
.
Casos de Uso Comuns
-
Geração de Texto:
- Resumir um grande arquivo de texto:
ollama run llama3.2 "Resuma o seguinte texto:" < long-document.txt
- Gerar conteúdo:
ollama run llama3.2 "Escreva um artigo curto sobre os benefícios do uso da IA na saúde." > article.txt
- Responder a perguntas específicas:
ollama run llama3.2 "Quais são as últimas tendências em IA e como elas afetarão a saúde?"
.
- Resumir um grande arquivo de texto:
-
Processamento e Análise de Dados:
- Classificar o texto em sentimentos positivos, negativos ou neutros:
ollama run llama3.2 "Analise o sentimento desta avaliação do cliente: 'O produto é fantástico, mas a entrega foi lenta.'"
- Categorizar o texto em categorias pré-definidas: Use comandos semelhantes para classificar ou categorizar o texto com base em critérios pré-definidos.
- Classificar o texto em sentimentos positivos, negativos ou neutros:
Usando o Ollama com Python
- Instalar a Biblioteca Python do Ollama:
pip install ollama
- Gerar Texto Usando Python:
Este trecho de código gera texto usando o modelo e o prompt especificados.
import ollama response = ollama.generate(model='gemma:2b', prompt='o que é um qubit?') print(response['response'])
Links Úteis
- Comparação de Assistentes de Codificação de IA
- Mover Modelos do Ollama para um Disco ou Pasta Diferente
- Como o Ollama Lida com Solicitações Paralelas
- Como o Ollama Utiliza o Desempenho e Núcleos Eficientes da CPU Intel
- Testando Deepseek-r1 no Ollama
- Folha de Dicas do Bash
- Modelos de Embedding e Reranker do Qwen3 no Ollama: Desempenho de Estado da Arte