Ollama-Cheatsheet
Habe diese Ollama-Befehlsliste vor einiger Zeit erstellt...
Hier ist die Liste und Beispiele der nützlichsten Ollama-Befehle (Ollama-Befehle-Cheat-Sheet), die ich vor einiger Zeit zusammengestellt habe. Hoffentlich wird es auch für Sie nützlich sein.
Ich hoffe, sie wird Ihnen nützlich sein.
Dieses Ollama-Cheat-Sheet konzentriert sich auf CLI-Befehle, Modellverwaltung und Anpassung.
Installation
- Option 1: Download von der Website
- Besuchen Sie ollama.com und laden Sie den Installer für Ihr Betriebssystem (Mac, Linux oder Windows) herunter.
- Option 2: Installation über die Kommandozeile
- Für Mac- und Linux-Nutzer verwenden Sie den Befehl:
curl https://ollama.ai/install.sh | sh
- Folgen Sie den Anweisungen auf dem Bildschirm und geben Sie Ihr Passwort ein, falls erforderlich.
- Für Mac- und Linux-Nutzer verwenden Sie den Befehl:
Systemanforderungen
- Betriebssystem: Mac oder Linux (Windows-Version in Entwicklung)
- Arbeitsspeicher (RAM): 8GB Mindest, 16GB oder mehr empfohlen
- Speicherplatz: Mindestens 10GB freier Speicherplatz (Modelldateien können wirklich groß sein, siehe hier mehr Ollama-Modelle auf eine andere Festplatte verschieben)
- Prozessor: Ein relativ modernes CPU (aus den letzten 5 Jahren).
Grundlegende Ollama-CLI-Befehle
Befehl | Beschreibung |
---|---|
ollama serve |
Startet Ollama auf Ihrem lokalen System. |
ollama create <new_model> |
Erstellt ein neues Modell aus einem bestehenden für die Anpassung oder das Training. |
ollama show <model> |
Zeigt Details zu einem bestimmten Modell an, wie z.B. dessen Konfiguration und Veröffentlichungsdatum. |
ollama run <model> |
Führt das angegebene Modell aus und macht es für die Interaktion bereit. |
ollama pull <model> |
Lädt das angegebene Modell auf Ihr System herunter. |
ollama list |
Listet alle heruntergeladenen Modelle auf. Das Gleiche wie ollama ls |
ollama ps |
Zeigt die derzeit laufenden Modelle an. |
ollama stop <model> |
Stoppt das angegebene laufende Modell. |
ollama rm <model> |
Entfernt das angegebene Modell von Ihrem System. |
ollama help |
Bietet Hilfe zu jedem Befehl. |
Modellverwaltung
-
Ein Modell herunterladen:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Dieser Befehl lädt das angegebene Modell (z.B. Gemma 2B oder mistral-nemo:12b-instruct-2407-q6_K) auf Ihr System herunter. Die Modelldateien können ziemlich groß sein, achten Sie also auf den von den Modellen auf der Festplatte oder SSD belegten Speicherplatz. Sie möchten möglicherweise alle Ollama-Modelle von Ihrem Home-Verzeichnis auf eine andere, größere und bessere Festplatte verschieben.
-
Ein Modell ausführen:
ollama run qwen2.5:32b-instruct-q3_K_S
Dieser Befehl startet das angegebene Modell und öffnet eine interaktive REPL für die Interaktion.
-
Modelle auflisten:
ollama list
das Gleiche wie:
ollama ls
Dieser Befehl listet alle Modelle auf, die auf Ihr System heruntergeladen wurden, wie z.B.
$ ollama ls NAME ID SIZE MODIFIED deepseek-r1:8b 6995872bfe4c 5.2 GB 2 Wochen her gemma3:12b-it-qat 5d4fa005e7bb 8.9 GB 2 Wochen her LoTUs5494/mistral-small-3.1:24b-instruct-2503-iq4_NL 4e994e0f85a0 13 GB 3 Wochen her dengcao/Qwen3-Embedding-8B:Q4_K_M d3ca2355027f 4.7 GB 4 Wochen her dengcao/Qwen3-Embedding-4B:Q5_K_M 7e8c9ad6885b 2.9 GB 4 Wochen her qwen3:8b 500a1f067a9f 5.2 GB 5 Wochen her qwen3:14b bdbd181c33f2 9.3 GB 5 Wochen her qwen3:30b-a3b 0b28110b7a33 18 GB 5 Wochen her devstral:24b c4b2fa0c33d7 14 GB 5 Wochen her
-
Ein Modell stoppen:
ollama stop llama3.1:8b-instruct-q8_0
Dieser Befehl stoppt das angegebene laufende Modell.
Modelle anpassen
-
System-Prompt festlegen: Innerhalb der Ollama-REPL können Sie einen System-Prompt festlegen, um das Verhalten des Modells anzupassen:
>>> /set system Für alle gestellten Fragen antworten Sie in einfachem Englisch und vermeiden Sie technische Fachbegriffe so weit wie möglich >>> /save ipe >>> /bye
Führen Sie dann das angepasste Modell aus:
ollama run ipe
Dies legt einen System-Prompt fest und speichert das Modell für die zukünftige Verwendung.
-
Benutzerdefinierte Modelldatei erstellen: Erstellen Sie eine Textdatei (z.B.
custom_model.txt
) mit der folgenden Struktur:FROM llama3.1 SYSTEM [Ihre benutzerdefinierten Anweisungen hier]
Führen Sie dann aus:
ollama create mymodel -f custom_model.txt ollama run mymodel
Dies erstellt ein benutzerdefiniertes Modell basierend auf den Anweisungen in der Datei.
Verwendung von Ollama mit Dateien
-
Zusammenfassung des Textes aus einer Datei:
ollama run llama3.2 "Fassen Sie den Inhalt dieser Datei in 50 Wörtern zusammen." < input.txt
Dieser Befehl fasst den Inhalt von
input.txt
mit dem angegebenen Modell zusammen. -
Modellantworten in eine Datei protokollieren:
ollama run llama3.2 "Erzählen Sie mir etwas über erneuerbare Energien." > output.txt
Dieser Befehl speichert die Antwort des Modells in
output.txt
.
Häufige Anwendungsfälle
-
Texterzeugung:
- Zusammenfassung einer großen Textdatei:
ollama run llama3.2 "Fassen Sie den folgenden Text zusammen:" < long-document.txt
- Inhaltserstellung:
ollama run llama3.2 "Schreiben Sie einen kurzen Artikel über die Vorteile der Nutzung von KI im Gesundheitswesen." > article.txt
- Beantwortung spezifischer Fragen:
ollama run llama3.2 "Was sind die neuesten Trends in der KI und wie werden sie das Gesundheitswesen beeinflussen?"
- Zusammenfassung einer großen Textdatei:
-
Datenverarbeitung und -analyse:
- Klassifizierung von Text in positive, negative oder neutrale Stimmung:
ollama run llama3.2 "Analysieren Sie die Stimmung dieser Kundenbewertung: 'Das Produkt ist fantastisch, aber die Lieferung war langsam.'"
- Kategorisierung von Text in vordefinierte Kategorien: Verwenden Sie ähnliche Befehle, um Text basierend auf vordefinierten Kriterien zu klassifizieren oder zu kategorisieren.
- Klassifizierung von Text in positive, negative oder neutrale Stimmung:
Verwendung von Ollama mit Python
- Ollama Python-Bibliothek installieren:
pip install ollama
- Texterzeugung mit Python:
Dieser Code-Ausschnitt generiert Text mit dem angegebenen Modell und Prompt.
import ollama response = ollama.generate(model='gemma:2b', prompt='what is a qubit?') print(response['response'])
Nützliche Links
- Vergleich von AI-Programmierassistenten
- Ollama-Modelle auf eine andere Festplatte oder einen anderen Ordner verschieben
- Wie Ollama parallele Anfragen verarbeitet
- Wie Ollama die Intel-CPU-Leistung und effiziente Kerne nutzt
- Deepseek-r1 auf Ollama testen
- Bash-Cheat-Sheet
- Qwen3-Embedding- & Reranker-Modelle auf Ollama: State-of-the-Art-Leistung