Ollama Snellegids
Gecompileerd en opgeslagen voor toekomstig gebruik...
Hier is de lijst en voorbeelden van de meest nuttige Ollama-commands (Ollama commands cheatsheet) Die ik vroeger al heb samengesteld. Hopelijk is het nuttiig voor je.
Deze Ollama-cheatsheet richt zich op CLI-commands, modelbeheer en aanpassingen
Installatie
- Optie 1: Downloaden vanaf de website
- Bezoek ollama.com en download de installer voor je besturingssysteem (Mac, Linux of Windows).
- Optie 2: Installeren via de command line
- Voor gebruikers van Mac en Linux, gebruik de commando:
curl https://ollama.ai/install.sh | sh
- Volg de op het scherm verschenen instructies en geef je wachtwoord op als dat wordt gevraagd[3].
- Voor gebruikers van Mac en Linux, gebruik de commando:
Systeemvereisten
- Besturingssysteem: Mac of Linux (Windows-versie in ontwikkeling)
- Geheugen (RAM): Minimaal 8 GB, aanbevolen 16 GB of meer
- Opslag: Minimaal ongeveer 10 GB vrije ruimte
- Processor: Een relatief moderne CPU (van de afgelopen 5 jaar)[3].
Basis Ollama CLI-commands
Commando | Beschrijving |
---|---|
ollama serve |
Start Ollama op je lokale systeem. |
ollama create <new_model> |
Maakt een nieuw model aan vanuit een bestaand model voor aanpassing of training. |
ollama show <model> |
Toont details over een specifiek model, zoals zijn configuratie en release datum. |
ollama run <model> |
Voert het opgegeven model uit, waardoor het klaar is voor interactie. |
ollama pull <model> |
Download het opgegeven model naar je systeem. |
ollama list |
Lijst alle gedownloade modellen op. |
ollama ps |
Toont de momenteel lopende modellen. |
ollama stop <model> |
Stopt het opgegeven lopende model. |
ollama rm <model> |
Verwijdert het opgegeven model van je systeem. |
ollama help |
Geeft hulp over elk commando. |
Modelbeheer
-
Een model downloaden:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Dit commando download het opgegeven model (bijvoorbeeld Gemma 2B) naar je systeem.
-
Een model uitvoeren:
ollama run qwen2.5:32b-instruct-q3_K_S
Dit commando start het opgegeven model en opent een interactieve REPL voor interactie.
-
Modellen lijsten:
ollama list
Dit commando lijst alle modellen op die naar je systeem zijn gedownload.
-
Een model stoppen:
ollama stop llama3.1:8b-instruct-q8_0
Dit commando stopt het opgegeven lopende model.
Modellen aanpassen
-
Stel een systeemprompt in: Binnen de Ollama REPL kun je een systeemprompt instellen om het gedrag van het model aan te passen:
>>> /set system Voor alle vragen die worden gesteld, antwoord in gewoon Engels en vermijd technische jargon zoveel mogelijk >>> /save ipe >>> /bye
Vervolgens voer je het aangepaste model uit:
ollama run ipe
Dit stelt een systeemprompt in en slaat het model op voor toekomstig gebruik.
-
Maak een aangepast modelbestand aan: Maak een tekstbestand aan (bijvoorbeeld
custom_model.txt
) met de volgende structuur:FROM llama3.1 SYSTEM [Je aangepaste instructies hier]
Vervolgens voer je uit:
ollama create mymodel -f custom_model.txt ollama run mymodel
Dit maakt een aangepast model op basis van de instructies in het bestand[3].
Ollama gebruiken met bestanden
-
Samenvatting van tekst uit een bestand:
ollama run llama3.2 "Samenvat de inhoud van dit bestand in 50 woorden." < input.txt
Dit commando samenvat de inhoud van
input.txt
met behulp van het opgegeven model. -
Modelreacties opslaan in een bestand:
ollama run llama3.2 "Vertel me over hernieuwbare energie." > output.txt
Dit commando slaat de reactie van het model op in
output.txt
.
Algemene toepassingsgebieden
-
Tekstgeneratie:
- Samenvatten van een groot tekstbestand:
ollama run llama3.2 "Samenvat de volgende tekst:" < long-document.txt
- Tekst genereren:
ollama run llama3.2 "Schrijf een korte artikel over de voordelen van het gebruik van AI in de gezondheidszorg." > article.txt
- Beantwoorden van specifieke vragen:
ollama run llama3.2 "Wat zijn de nieuwste trends in AI, en hoe zullen ze de gezondheidszorg beïnvloeden?"
.
- Samenvatten van een groot tekstbestand:
-
Dataverwerking en analyse:
- Classificeren van tekst in positief, negatief of neutraal sentiment:
ollama run llama3.2 "Analyseer het sentiment van deze klantrecensie: 'Het product is geweldig, maar de levering was traag.'"
- Categorieëren van tekst in vooraf gedefinieerde categorieën: Gebruik vergelijkbare commando’s om tekst te classificeren of te categoriseren op basis van vooraf gedefinieerde criteria.
- Classificeren van tekst in positief, negatief of neutraal sentiment:
Ollama gebruiken met Python
- Installeer de Ollama Python-bibliotheek:
pip install ollama
- Genereer tekst met behulp van Python:
Dit codefragment genereert tekst met behulp van het opgegeven model en prompt.
import ollama response = ollama.generate(model='gemma:2b', prompt='wat is een qubit?') print(response['response'])