Ollama-Kurztaste

Ich habe einige davon für spätere Zwecke kompiliert...

Inhaltsverzeichnis

Hier ist die Liste und Beispiele der nützlichsten Ollama-Befehle (Ollama-Befehlsübersicht),
die ich vor einiger Zeit zusammengestellt habe.
Ich hoffe, sie wird Ihnen nützlich sein.

ollama cheatsheet

Diese Ollama-Übersicht konzentriert sich auf CLI-Befehle, Modellverwaltung und Anpassung

Installation

  • Option 1: Herunterladen von der Website
    • Besuchen Sie ollama.com und laden Sie den Installer für Ihr Betriebssystem (Mac, Linux oder Windows) herunter.
  • Option 2: Installation über die Kommandozeile
    • Für Nutzer von Mac und Linux verwenden Sie den Befehl:
      curl https://ollama.ai/install.sh | sh
      
    • Folgen Sie den auf dem Bildschirm angezeigten Anweisungen und geben Sie bei Aufforderung Ihr Passwort ein[3].

Systemanforderungen

  • Betriebssystem: Mac oder Linux (Windows-Version in Entwicklung)
  • Arbeitsspeicher (RAM): Mindestens 8 GB, 16 GB oder mehr empfohlen
  • Speicher: Mindestens ~10 GB freier Speicherplatz
  • Prozessor: Ein relativ moderner CPU (aus den letzten 5 Jahren)[3].

Grundlegende Ollama-CLI-Befehle

Befehl Beschreibung
ollama serve Startet Ollama auf Ihrem lokalen System.
ollama create <new_model> Erstellt ein neues Modell aus einem bestehenden für Anpassungen oder Training.
ollama show <model> Zeigt Details zu einem bestimmten Modell an, wie z. B. Konfiguration und Veröffentlichungsdatum.
ollama run <model> Führt das angegebene Modell aus, wodurch es für Interaktion bereit steht.
ollama pull <model> Lädt das angegebene Modell auf Ihr System herunter.
ollama list Listet alle heruntergeladenen Modelle auf.
ollama ps Zeigt die derzeit laufenden Modelle an.
ollama stop <model> Stoppt das angegebene laufende Modell.
ollama rm <model> Entfernt das angegebene Modell von Ihrem System.
ollama help Bietet Hilfe zu jedem Befehl.

Modellverwaltung

  • Ein Modell herunterladen:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    Dieser Befehl lädt das angegebene Modell (z. B. Gemma 2B) auf Ihr System herunter.

  • Ein Modell ausführen:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    Dieser Befehl startet das angegebene Modell und öffnet eine interaktive REPL für die Interaktion.

  • Modelle auflisten:

    ollama list
    

    Dieser Befehl listet alle Modelle auf, die auf Ihrem System heruntergeladen wurden.

  • Ein Modell stoppen:

    ollama stop llama3.1:8b-instruct-q8_0
    

    Dieser Befehl stoppt das angegebene laufende Modell.

Anpassen von Modellen

  • Systemprompt festlegen: Innerhalb der Ollama-REPL können Sie einen Systemprompt festlegen, um das Verhalten des Modells anzupassen:

    >>> /set system Für alle gestellten Fragen antworte in einfacher englischer Sprache und vermeide so weit wie möglich technische Fachbegriffe
    >>> /save ipe
    >>> /bye
    

    Danach können Sie das angepasste Modell ausführen:

    ollama run ipe
    

    Dies legt einen Systemprompt fest und speichert das Modell für spätere Verwendung.

  • Benutzerdefinierte Modelldatei erstellen: Erstellen Sie eine Textdatei (z. B. custom_model.txt) mit folgender Struktur:

    FROM llama3.1
    SYSTEM [Ihre benutzerdefinierten Anweisungen hier]
    

    Danach führen Sie aus:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    Dies erstellt ein benutzerdefiniertes Modell basierend auf den Anweisungen in der Datei[3].

Ollama mit Dateien verwenden

  • Text aus einer Datei zusammenfassen:

    ollama run llama3.2 "Zusammenfassen Sie den Inhalt dieser Datei in 50 Wörtern." < input.txt
    

    Dieser Befehl fasst den Inhalt von input.txt mithilfe des angegebenen Modells zusammen.

  • Modellantworten in eine Datei protokollieren:

    ollama run llama3.2 "Erzählen Sie mir über erneuerbare Energien." > output.txt
    

    Dieser Befehl speichert die Antwort des Modells in output.txt.

Häufige Anwendungsfälle

  • Textgenerierung:

    • Zusammenfassen eines großen Textdokuments:
      ollama run llama3.2 "Zusammenfassen Sie den folgenden Text:" < long-document.txt
      
    • Inhalt generieren:
      ollama run llama3.2 "Schreiben Sie einen kurzen Artikel über die Vorteile der Verwendung von KI in der Gesundheitsversorgung." > article.txt
      
    • Auf spezifische Fragen antworten:
      ollama run llama3.2 "Was sind die neuesten Trends in der KI und wie werden sie die Gesundheitsversorgung beeinflussen?"
      

    .

  • Datenverarbeitung und -analyse:

    • Text in positive, negative oder neutrale Stimmung klassifizieren:
      ollama run llama3.2 "Analysieren Sie die Stimmung dieses Kundenbewertung: 'Das Produkt ist fantastisch, aber die Lieferung war langsam.'"
      
    • Text in vorgegebene Kategorien einordnen: Verwenden Sie ähnliche Befehle, um Text basierend auf vorgegebenen Kriterien zu klassifizieren oder einzuteilen.

Ollama mit Python verwenden

  • Ollama-Python-Bibliothek installieren:
    pip install ollama
    
  • Text mit Python generieren:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='Was ist ein Qubit?')
    print(response['response'])
    
    Dieser Codeabschnitt generiert Text mithilfe des angegebenen Modells und Prompt.