Guía rápida de Ollama
Compilé esta lista de comandos de Ollama hace algún tiempo...
Aquí está la lista y ejemplos de los comandos más útiles de Ollama (cheat sheet de comandos de Ollama) Los compilé hace algún tiempo. Espero que también sea útil para ti.
Este cheat sheet de Ollama se centra en comandos de CLI, gestión de modelos y personalización
Instalación
- Opción 1: Descargar desde el sitio web
- Visita ollama.com y descarga el instalador para tu sistema operativo (Mac, Linux o Windows).
- Opción 2: Instalar desde la línea de comandos
- Para usuarios de Mac y Linux, usa el siguiente comando:
curl https://ollama.ai/install.sh | sh
- Sigue las instrucciones en pantalla y introduce tu contraseña si se te solicita.
- Para usuarios de Mac y Linux, usa el siguiente comando:
Requisitos del sistema
- Sistema operativo: Mac o Linux (versión para Windows en desarrollo)
- Memoria (RAM): Mínimo 8 GB, se recomienda 16 GB o más
- Almacenamiento: Al menos ~10 GB de espacio libre (los archivos de modelos pueden ser muy grandes, consulta aquí más información Mover modelos de Ollama a otro disco duro)
- Procesador: Un CPU relativamente moderno (de los últimos 5 años).
Comandos básicos de CLI de Ollama
Comando | Descripción |
---|---|
ollama serve |
Inicia Ollama en tu sistema local. |
ollama create <new_model> |
Crea un nuevo modelo a partir de uno existente para personalización o entrenamiento. |
ollama show <model> |
Muestra detalles sobre un modelo específico, como su configuración y fecha de lanzamiento. |
ollama run <model> |
Ejecuta el modelo especificado, preparándolo para la interacción. |
ollama pull <model> |
Descarga el modelo especificado a tu sistema. |
ollama list |
Lista todos los modelos descargados. El mismo que ollama ls |
ollama ps |
Muestra los modelos que están actualmente en ejecución. |
ollama stop <model> |
Detiene el modelo especificado que está en ejecución. |
ollama rm <model> |
Elimina el modelo especificado de tu sistema. |
ollama help |
Proporciona ayuda sobre cualquier comando. |
Gestión de modelos
-
Descargar un modelo:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Este comando descarga el modelo especificado (por ejemplo, Gemma 2B o mistral-nemo:12b-instruct-2407-q6_K) a tu sistema. Los archivos del modelo pueden ser bastante grandes, así que mantén un ojo en el espacio utilizado por los modelos en el disco duro o SSD. Incluso podrías querer mover todos los modelos de Ollama de tu directorio de inicio a otro disco más grande y mejor
-
Ejecutar un modelo:
ollama run qwen2.5:32b-instruct-q3_K_S
Este comando inicia el modelo especificado y abre un REPL interactivo para la interacción.
-
Listar modelos:
ollama list
lo mismo que:
ollama ls
Este comando lista todos los modelos que han sido descargados a tu sistema, como
$ ollama ls NAME ID SIZE MODIFIED deepseek-r1:8b 6995872bfe4c 5.2 GB 2 semanas atrás gemma3:12b-it-qat 5d4fa005e7bb 8.9 GB 2 semanas atrás LoTUs5494/mistral-small-3.1:24b-instruct-2503-iq4_NL 4e994e0f85a0 13 GB 3 semanas atrás dengcao/Qwen3-Embedding-8B:Q4_K_M d3ca2355027f 4.7 GB 4 semanas atrás dengcao/Qwen3-Embedding-4B:Q5_K_M 7e8c9ad6885b 2.9 GB 4 semanas atrás qwen3:8b 500a1f067a9f 5.2 GB 5 semanas atrás qwen3:14b bdbd181c33f2 9.3 GB 5 semanas atrás qwen3:30b-a3b 0b28110b7a33 18 GB 5 semanas atrás devstral:24b c4b2fa0c33d7 14 GB 5 semanas atrás
-
Detener un modelo:
ollama stop llama3.1:8b-instruct-q8_0
Este comando detiene el modelo especificado que está en ejecución.
Personalización de modelos
-
Establecer un prompt del sistema: Dentro del REPL de Ollama, puedes establecer un prompt del sistema para personalizar el comportamiento del modelo:
>>> /set system Para todas las preguntas respondas en inglés simple evitando el lenguaje técnico tanto como sea posible >>> /save ipe >>> /bye
Luego, ejecuta el modelo personalizado:
ollama run ipe
Esto establece un prompt del sistema y guarda el modelo para su uso futuro.
-
Crear un archivo de modelo personalizado: Crea un archivo de texto (por ejemplo,
custom_model.txt
) con la siguiente estructura:FROM llama3.1 SYSTEM [Tus instrucciones personalizadas aquí]
Luego, ejecuta:
ollama create mymodel -f custom_model.txt ollama run mymodel
Esto crea un modelo personalizado basado en las instrucciones del archivo.
Usar Ollama con archivos
-
Resumir texto de un archivo:
ollama run llama3.2 "Resuma el contenido de este archivo en 50 palabras." < input.txt
Este comando resume el contenido de
input.txt
usando el modelo especificado. -
Grabar las respuestas del modelo en un archivo:
ollama run llama3.2 "Háblame sobre las energías renovables." > output.txt
Este comando guarda la respuesta del modelo en
output.txt
.
Casos de uso comunes
-
Generación de texto:
- Resumir un archivo de texto grande:
ollama run llama3.2 "Resuma el siguiente texto:" < long-document.txt
- Generar contenido:
ollama run llama3.2 "Escribe un breve artículo sobre los beneficios del uso de la IA en la salud." > article.txt
- Contestar preguntas específicas:
ollama run llama3.2 "¿Cuáles son las últimas tendencias en IA y cómo afectarán la salud?"
.
- Resumir un archivo de texto grande:
-
Procesamiento y análisis de datos:
- Clasificar texto en positivo, negativo o neutro:
ollama run llama3.2 "Analiza el sentimiento de esta reseña del cliente: 'El producto es fantástico, pero la entrega fue lenta.'"
- Categorizar texto en categorías predefinidas: Usa comandos similares para clasificar o categorizar texto según criterios predefinidos.
- Clasificar texto en positivo, negativo o neutro:
Usar Ollama con Python
- Instalar la biblioteca de Python de Ollama:
pip install ollama
- Generar texto usando Python:
Este fragmento de código genera texto usando el modelo y el prompt especificados.
import ollama response = ollama.generate(model='gemma:2b', prompt='¿Qué es un qubit?') print(response['response'])
Enlaces útiles
- Comparación de asistentes de codificación de IA
- Mover modelos de Ollama a otro disco o carpeta
- Cómo maneja Ollama las solicitudes en paralelo
- Cómo Ollama utiliza el rendimiento de los núcleos de CPU de Intel y núcleos eficientes
- Prueba de Deepseek-r1 en Ollama
- Cheatsheet de Bash
- Modelos de Qwen3 Embedding y Reranker en Ollama: Rendimiento de vanguardia