Guía rápida de Ollama

Compilé algunos para uso futuro...

Índice

Aquí está la lista y ejemplos de los comandos más útiles de Ollama (cheat sheet de comandos de Ollama) La compilé hace algún tiempo. Espero que sea útil para ti](https://www.glukhov.org/es/).

ollama cheatsheet

Este cheat sheet de Ollama se centra en comandos de CLI, gestión de modelos y personalización

Instalación

  • Opción 1: Descargar desde el sitio web
    • Visita ollama.com y descarga el instalador para tu sistema operativo (Mac, Linux o Windows).
  • Opción 2: Instalar desde la línea de comandos
    • Para usuarios de Mac y Linux, usa el siguiente comando:
      curl https://ollama.ai/install.sh | sh
      
    • Sigue las instrucciones en pantalla y introduce tu contraseña si se te solicita[3].

Requisitos del sistema

  • Sistema operativo: Mac o Linux (versión para Windows en desarrollo)
  • Memoria (RAM): Mínimo 8 GB, se recomienda 16 GB o más
  • Almacenamiento: Al menos ~10 GB de espacio libre
  • Procesador: Un CPU relativamente moderno (de los últimos 5 años)[3].

Comandos básicos de CLI de Ollama

Comando Descripción
ollama serve Inicia Ollama en tu sistema local.
ollama create <new_model> Crea un nuevo modelo a partir de uno existente para personalización o entrenamiento.
ollama show <model> Muestra detalles sobre un modelo específico, como su configuración y fecha de lanzamiento.
ollama run <model> Ejecuta el modelo especificado, preparándolo para la interacción.
ollama pull <model> Descarga el modelo especificado a tu sistema.
ollama list Lista todos los modelos descargados.
ollama ps Muestra los modelos que están actualmente en ejecución.
ollama stop <model> Detiene el modelo especificado que está en ejecución.
ollama rm <model> Elimina el modelo especificado de tu sistema.
ollama help Proporciona ayuda sobre cualquier comando.

Gestión de modelos

  • Descargar un modelo:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    Este comando descarga el modelo especificado (por ejemplo, Gemma 2B) a tu sistema.

  • Ejecutar un modelo:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    Este comando inicia el modelo especificado y abre un REPL interactivo para la interacción.

  • Listar modelos:

    ollama list
    

    Este comando lista todos los modelos que han sido descargados a tu sistema.

  • Detener un modelo:

    ollama stop llama3.1:8b-instruct-q8_0
    

    Este comando detiene el modelo especificado que está en ejecución.

Personalización de modelos

  • Establecer el prompt del sistema: Dentro del REPL de Ollama, puedes establecer un prompt del sistema para personalizar el comportamiento del modelo:

    >>> /set system Para todas las preguntas respondas en inglés simple evitando el lenguaje técnico tanto como sea posible
    >>> /save ipe
    >>> /bye
    

    Luego, ejecuta el modelo personalizado:

    ollama run ipe
    

    Esto establece un prompt del sistema y guarda el modelo para su uso futuro.

  • Crear un archivo de modelo personalizado: Crea un archivo de texto (por ejemplo, custom_model.txt) con la siguiente estructura:

    FROM llama3.1
    SYSTEM [Tus instrucciones personalizadas aquí]
    

    Luego, ejecuta:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    Esto crea un modelo personalizado basado en las instrucciones del archivo[3].

Usar Ollama con archivos

  • Resumir texto de un archivo:

    ollama run llama3.2 "Resuma el contenido de este archivo en 50 palabras." < input.txt
    

    Este comando resume el contenido de input.txt usando el modelo especificado.

  • Registrar las respuestas del modelo en un archivo:

    ollama run llama3.2 "Háblame sobre las energías renovables." > output.txt
    

    Este comando guarda la respuesta del modelo en output.txt.

Casos de uso comunes

  • Generación de texto:

    • Resumir un archivo de texto grande:
      ollama run llama3.2 "Resuma el siguiente texto:" < long-document.txt
      
    • Generar contenido:
      ollama run llama3.2 "Escribe un artículo corto sobre los beneficios del uso de la IA en la salud." > article.txt
      
    • Contestar preguntas específicas:
      ollama run llama3.2 "¿Cuáles son las últimas tendencias en IA y cómo afectarán la salud?"
      

    .

  • Procesamiento y análisis de datos:

    • Clasificar texto en sentimiento positivo, negativo o neutro:
      ollama run llama3.2 "Analiza el sentimiento de esta reseña del cliente: 'El producto es fantástico, pero el envío fue lento.'"
      
    • Categorizar texto en categorías predefinidas: Usa comandos similares para clasificar o categorizar texto según criterios predefinidos.

Usar Ollama con Python

  • Instalar la biblioteca de Python de Ollama:
    pip install ollama
    
  • Generar texto usando Python:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='¿qué es un qubit?')
    print(response['response'])
    
    Este fragmento de código genera texto usando el modelo y el prompt especificados.

Enlaces útiles