Ollama Snellegids

Gecompileerd en opgeslagen voor toekomstig gebruik...

Inhoud

Hier is de lijst en voorbeelden van de meest nuttige Ollama-commands (Ollama commands cheatsheet) Die ik vroeger al heb samengesteld. Hopelijk is het nuttiig voor je.

ollama cheatsheet

Deze Ollama-cheatsheet richt zich op CLI-commands, modelbeheer en aanpassingen

Installatie

  • Optie 1: Downloaden vanaf de website
    • Bezoek ollama.com en download de installer voor je besturingssysteem (Mac, Linux of Windows).
  • Optie 2: Installeren via de command line
    • Voor gebruikers van Mac en Linux, gebruik de commando:
      curl https://ollama.ai/install.sh | sh
      
    • Volg de op het scherm verschenen instructies en geef je wachtwoord op als dat wordt gevraagd[3].

Systeemvereisten

  • Besturingssysteem: Mac of Linux (Windows-versie in ontwikkeling)
  • Geheugen (RAM): Minimaal 8 GB, aanbevolen 16 GB of meer
  • Opslag: Minimaal ongeveer 10 GB vrije ruimte
  • Processor: Een relatief moderne CPU (van de afgelopen 5 jaar)[3].

Basis Ollama CLI-commands

Commando Beschrijving
ollama serve Start Ollama op je lokale systeem.
ollama create <new_model> Maakt een nieuw model aan vanuit een bestaand model voor aanpassing of training.
ollama show <model> Toont details over een specifiek model, zoals zijn configuratie en release datum.
ollama run <model> Voert het opgegeven model uit, waardoor het klaar is voor interactie.
ollama pull <model> Download het opgegeven model naar je systeem.
ollama list Lijst alle gedownloade modellen op.
ollama ps Toont de momenteel lopende modellen.
ollama stop <model> Stopt het opgegeven lopende model.
ollama rm <model> Verwijdert het opgegeven model van je systeem.
ollama help Geeft hulp over elk commando.

Modelbeheer

  • Een model downloaden:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    Dit commando download het opgegeven model (bijvoorbeeld Gemma 2B) naar je systeem.

  • Een model uitvoeren:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    Dit commando start het opgegeven model en opent een interactieve REPL voor interactie.

  • Modellen lijsten:

    ollama list
    

    Dit commando lijst alle modellen op die naar je systeem zijn gedownload.

  • Een model stoppen:

    ollama stop llama3.1:8b-instruct-q8_0
    

    Dit commando stopt het opgegeven lopende model.

Modellen aanpassen

  • Stel een systeemprompt in: Binnen de Ollama REPL kun je een systeemprompt instellen om het gedrag van het model aan te passen:

    >>> /set system Voor alle vragen die worden gesteld, antwoord in gewoon Engels en vermijd technische jargon zoveel mogelijk
    >>> /save ipe
    >>> /bye
    

    Vervolgens voer je het aangepaste model uit:

    ollama run ipe
    

    Dit stelt een systeemprompt in en slaat het model op voor toekomstig gebruik.

  • Maak een aangepast modelbestand aan: Maak een tekstbestand aan (bijvoorbeeld custom_model.txt) met de volgende structuur:

    FROM llama3.1
    SYSTEM [Je aangepaste instructies hier]
    

    Vervolgens voer je uit:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    Dit maakt een aangepast model op basis van de instructies in het bestand[3].

Ollama gebruiken met bestanden

  • Samenvatting van tekst uit een bestand:

    ollama run llama3.2 "Samenvat de inhoud van dit bestand in 50 woorden." < input.txt
    

    Dit commando samenvat de inhoud van input.txt met behulp van het opgegeven model.

  • Modelreacties opslaan in een bestand:

    ollama run llama3.2 "Vertel me over hernieuwbare energie." > output.txt
    

    Dit commando slaat de reactie van het model op in output.txt.

Algemene toepassingsgebieden

  • Tekstgeneratie:

    • Samenvatten van een groot tekstbestand:
      ollama run llama3.2 "Samenvat de volgende tekst:" < long-document.txt
      
    • Tekst genereren:
      ollama run llama3.2 "Schrijf een korte artikel over de voordelen van het gebruik van AI in de gezondheidszorg." > article.txt
      
    • Beantwoorden van specifieke vragen:
      ollama run llama3.2 "Wat zijn de nieuwste trends in AI, en hoe zullen ze de gezondheidszorg beïnvloeden?"
      

    .

  • Dataverwerking en analyse:

    • Classificeren van tekst in positief, negatief of neutraal sentiment:
      ollama run llama3.2 "Analyseer het sentiment van deze klantrecensie: 'Het product is geweldig, maar de levering was traag.'"
      
    • Categorieëren van tekst in vooraf gedefinieerde categorieën: Gebruik vergelijkbare commando’s om tekst te classificeren of te categoriseren op basis van vooraf gedefinieerde criteria.

Ollama gebruiken met Python

  • Installeer de Ollama Python-bibliotheek:
    pip install ollama
    
  • Genereer tekst met behulp van Python:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='wat is een qubit?')
    print(response['response'])
    
    Dit codefragment genereert tekst met behulp van het opgegeven model en prompt.