Guía rápida de Ollama
Compilé algunos para uso futuro...
Aquí está la lista y ejemplos de los comandos más útiles de Ollama (cheat sheet de comandos de Ollama) La compilé hace algún tiempo. Espero que sea útil para ti](https://www.glukhov.org/es/).
Este cheat sheet de Ollama se centra en comandos de CLI, gestión de modelos y personalización
Instalación
- Opción 1: Descargar desde el sitio web
- Visita ollama.com y descarga el instalador para tu sistema operativo (Mac, Linux o Windows).
- Opción 2: Instalar desde la línea de comandos
- Para usuarios de Mac y Linux, usa el siguiente comando:
curl https://ollama.ai/install.sh | sh
- Sigue las instrucciones en pantalla y introduce tu contraseña si se te solicita[3].
- Para usuarios de Mac y Linux, usa el siguiente comando:
Requisitos del sistema
- Sistema operativo: Mac o Linux (versión para Windows en desarrollo)
- Memoria (RAM): Mínimo 8 GB, se recomienda 16 GB o más
- Almacenamiento: Al menos ~10 GB de espacio libre
- Procesador: Un CPU relativamente moderno (de los últimos 5 años)[3].
Comandos básicos de CLI de Ollama
Comando | Descripción |
---|---|
ollama serve |
Inicia Ollama en tu sistema local. |
ollama create <new_model> |
Crea un nuevo modelo a partir de uno existente para personalización o entrenamiento. |
ollama show <model> |
Muestra detalles sobre un modelo específico, como su configuración y fecha de lanzamiento. |
ollama run <model> |
Ejecuta el modelo especificado, preparándolo para la interacción. |
ollama pull <model> |
Descarga el modelo especificado a tu sistema. |
ollama list |
Lista todos los modelos descargados. |
ollama ps |
Muestra los modelos que están actualmente en ejecución. |
ollama stop <model> |
Detiene el modelo especificado que está en ejecución. |
ollama rm <model> |
Elimina el modelo especificado de tu sistema. |
ollama help |
Proporciona ayuda sobre cualquier comando. |
Gestión de modelos
-
Descargar un modelo:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Este comando descarga el modelo especificado (por ejemplo, Gemma 2B) a tu sistema.
-
Ejecutar un modelo:
ollama run qwen2.5:32b-instruct-q3_K_S
Este comando inicia el modelo especificado y abre un REPL interactivo para la interacción.
-
Listar modelos:
ollama list
Este comando lista todos los modelos que han sido descargados a tu sistema.
-
Detener un modelo:
ollama stop llama3.1:8b-instruct-q8_0
Este comando detiene el modelo especificado que está en ejecución.
Personalización de modelos
-
Establecer el prompt del sistema: Dentro del REPL de Ollama, puedes establecer un prompt del sistema para personalizar el comportamiento del modelo:
>>> /set system Para todas las preguntas respondas en inglés simple evitando el lenguaje técnico tanto como sea posible >>> /save ipe >>> /bye
Luego, ejecuta el modelo personalizado:
ollama run ipe
Esto establece un prompt del sistema y guarda el modelo para su uso futuro.
-
Crear un archivo de modelo personalizado: Crea un archivo de texto (por ejemplo,
custom_model.txt
) con la siguiente estructura:FROM llama3.1 SYSTEM [Tus instrucciones personalizadas aquí]
Luego, ejecuta:
ollama create mymodel -f custom_model.txt ollama run mymodel
Esto crea un modelo personalizado basado en las instrucciones del archivo[3].
Usar Ollama con archivos
-
Resumir texto de un archivo:
ollama run llama3.2 "Resuma el contenido de este archivo en 50 palabras." < input.txt
Este comando resume el contenido de
input.txt
usando el modelo especificado. -
Registrar las respuestas del modelo en un archivo:
ollama run llama3.2 "Háblame sobre las energías renovables." > output.txt
Este comando guarda la respuesta del modelo en
output.txt
.
Casos de uso comunes
-
Generación de texto:
- Resumir un archivo de texto grande:
ollama run llama3.2 "Resuma el siguiente texto:" < long-document.txt
- Generar contenido:
ollama run llama3.2 "Escribe un artículo corto sobre los beneficios del uso de la IA en la salud." > article.txt
- Contestar preguntas específicas:
ollama run llama3.2 "¿Cuáles son las últimas tendencias en IA y cómo afectarán la salud?"
.
- Resumir un archivo de texto grande:
-
Procesamiento y análisis de datos:
- Clasificar texto en sentimiento positivo, negativo o neutro:
ollama run llama3.2 "Analiza el sentimiento de esta reseña del cliente: 'El producto es fantástico, pero el envío fue lento.'"
- Categorizar texto en categorías predefinidas: Usa comandos similares para clasificar o categorizar texto según criterios predefinidos.
- Clasificar texto en sentimiento positivo, negativo o neutro:
Usar Ollama con Python
- Instalar la biblioteca de Python de Ollama:
pip install ollama
- Generar texto usando Python:
Este fragmento de código genera texto usando el modelo y el prompt especificados.
import ollama response = ollama.generate(model='gemma:2b', prompt='¿qué es un qubit?') print(response['response'])
Enlaces útiles
- Comparación de asistentes de codificación de IA
- Mover modelos de Ollama a un disco o carpeta diferente
- Cómo maneja Ollama las solicitudes paralelas
- Cómo Ollama utiliza el rendimiento de los núcleos de CPU de Intel y núcleos eficientes
- Pruebas de Deepseek-r1 en Ollama
- Cheatsheet de Bash
- Modelos de embedding y reranker de Qwen3 en Ollama: rendimiento de vanguardia