Ollama-Kurztaste
Ich habe einige davon für spätere Zwecke kompiliert...
Hier ist die Liste und Beispiele der nützlichsten Ollama-Befehle (Ollama-Befehlsübersicht),
die ich vor einiger Zeit zusammengestellt habe.
Ich hoffe, sie wird Ihnen nützlich sein.
Diese Ollama-Übersicht konzentriert sich auf CLI-Befehle, Modellverwaltung und Anpassung
Installation
- Option 1: Herunterladen von der Website
- Besuchen Sie ollama.com und laden Sie den Installer für Ihr Betriebssystem (Mac, Linux oder Windows) herunter.
- Option 2: Installation über die Kommandozeile
- Für Nutzer von Mac und Linux verwenden Sie den Befehl:
curl https://ollama.ai/install.sh | sh
- Folgen Sie den auf dem Bildschirm angezeigten Anweisungen und geben Sie bei Aufforderung Ihr Passwort ein[3].
- Für Nutzer von Mac und Linux verwenden Sie den Befehl:
Systemanforderungen
- Betriebssystem: Mac oder Linux (Windows-Version in Entwicklung)
- Arbeitsspeicher (RAM): Mindestens 8 GB, 16 GB oder mehr empfohlen
- Speicher: Mindestens ~10 GB freier Speicherplatz
- Prozessor: Ein relativ moderner CPU (aus den letzten 5 Jahren)[3].
Grundlegende Ollama-CLI-Befehle
Befehl | Beschreibung |
---|---|
ollama serve |
Startet Ollama auf Ihrem lokalen System. |
ollama create <new_model> |
Erstellt ein neues Modell aus einem bestehenden für Anpassungen oder Training. |
ollama show <model> |
Zeigt Details zu einem bestimmten Modell an, wie z. B. Konfiguration und Veröffentlichungsdatum. |
ollama run <model> |
Führt das angegebene Modell aus, wodurch es für Interaktion bereit steht. |
ollama pull <model> |
Lädt das angegebene Modell auf Ihr System herunter. |
ollama list |
Listet alle heruntergeladenen Modelle auf. |
ollama ps |
Zeigt die derzeit laufenden Modelle an. |
ollama stop <model> |
Stoppt das angegebene laufende Modell. |
ollama rm <model> |
Entfernt das angegebene Modell von Ihrem System. |
ollama help |
Bietet Hilfe zu jedem Befehl. |
Modellverwaltung
-
Ein Modell herunterladen:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Dieser Befehl lädt das angegebene Modell (z. B. Gemma 2B) auf Ihr System herunter.
-
Ein Modell ausführen:
ollama run qwen2.5:32b-instruct-q3_K_S
Dieser Befehl startet das angegebene Modell und öffnet eine interaktive REPL für die Interaktion.
-
Modelle auflisten:
ollama list
Dieser Befehl listet alle Modelle auf, die auf Ihrem System heruntergeladen wurden.
-
Ein Modell stoppen:
ollama stop llama3.1:8b-instruct-q8_0
Dieser Befehl stoppt das angegebene laufende Modell.
Anpassen von Modellen
-
Systemprompt festlegen: Innerhalb der Ollama-REPL können Sie einen Systemprompt festlegen, um das Verhalten des Modells anzupassen:
>>> /set system Für alle gestellten Fragen antworte in einfacher englischer Sprache und vermeide so weit wie möglich technische Fachbegriffe >>> /save ipe >>> /bye
Danach können Sie das angepasste Modell ausführen:
ollama run ipe
Dies legt einen Systemprompt fest und speichert das Modell für spätere Verwendung.
-
Benutzerdefinierte Modelldatei erstellen: Erstellen Sie eine Textdatei (z. B.
custom_model.txt
) mit folgender Struktur:FROM llama3.1 SYSTEM [Ihre benutzerdefinierten Anweisungen hier]
Danach führen Sie aus:
ollama create mymodel -f custom_model.txt ollama run mymodel
Dies erstellt ein benutzerdefiniertes Modell basierend auf den Anweisungen in der Datei[3].
Ollama mit Dateien verwenden
-
Text aus einer Datei zusammenfassen:
ollama run llama3.2 "Zusammenfassen Sie den Inhalt dieser Datei in 50 Wörtern." < input.txt
Dieser Befehl fasst den Inhalt von
input.txt
mithilfe des angegebenen Modells zusammen. -
Modellantworten in eine Datei protokollieren:
ollama run llama3.2 "Erzählen Sie mir über erneuerbare Energien." > output.txt
Dieser Befehl speichert die Antwort des Modells in
output.txt
.
Häufige Anwendungsfälle
-
Textgenerierung:
- Zusammenfassen eines großen Textdokuments:
ollama run llama3.2 "Zusammenfassen Sie den folgenden Text:" < long-document.txt
- Inhalt generieren:
ollama run llama3.2 "Schreiben Sie einen kurzen Artikel über die Vorteile der Verwendung von KI in der Gesundheitsversorgung." > article.txt
- Auf spezifische Fragen antworten:
ollama run llama3.2 "Was sind die neuesten Trends in der KI und wie werden sie die Gesundheitsversorgung beeinflussen?"
.
- Zusammenfassen eines großen Textdokuments:
-
Datenverarbeitung und -analyse:
- Text in positive, negative oder neutrale Stimmung klassifizieren:
ollama run llama3.2 "Analysieren Sie die Stimmung dieses Kundenbewertung: 'Das Produkt ist fantastisch, aber die Lieferung war langsam.'"
- Text in vorgegebene Kategorien einordnen: Verwenden Sie ähnliche Befehle, um Text basierend auf vorgegebenen Kriterien zu klassifizieren oder einzuteilen.
- Text in positive, negative oder neutrale Stimmung klassifizieren:
Ollama mit Python verwenden
- Ollama-Python-Bibliothek installieren:
pip install ollama
- Text mit Python generieren:
Dieser Codeabschnitt generiert Text mithilfe des angegebenen Modells und Prompt.
import ollama response = ollama.generate(model='gemma:2b', prompt='Was ist ein Qubit?') print(response['response'])