Ollama Feuille de rappel

L'ai compilé quelques-uns pour une utilisation ultérieure...

Sommaire

Voici la liste et les exemples des commandes Ollama les plus utiles (fiche de commandes Ollama) que j’ai compilées il y a un certain temps. J’espère qu’elles vous seront utiles.

fiche de commandes Ollama

Cette fiche de commandes Ollama se concentre sur les commandes CLI, la gestion des modèles et la personnalisation

Installation

  • Option 1 : Télécharger depuis le site web
    • Visitez ollama.com et téléchargez l’installeur pour votre système d’exploitation (Mac, Linux ou Windows).
  • Option 2 : Installer via la ligne de commande
    • Pour les utilisateurs Mac et Linux, utilisez la commande :
      curl https://ollama.ai/install.sh | sh
      
    • Suivez les instructions à l’écran et entrez votre mot de passe si nécessaire[3].

Configuration système requise

  • Système d’exploitation : Mac ou Linux (version Windows en développement)
  • Mémoire (RAM) : 8 Go minimum, 16 Go ou plus recommandé
  • Stockage : Au moins ~10 Go d’espace libre
  • Processeur : Un processeur relativement moderne (des dernières 5 années)[3].

Commandes CLI Ollama de base

Commande Description
ollama serve Démarrer Ollama sur votre système local.
ollama create <new_model> Créer un nouveau modèle à partir d’un modèle existant pour la personnalisation ou l’entraînement.
ollama show <model> Afficher les détails d’un modèle spécifique, tels que sa configuration et sa date de publication.
ollama run <model> Exécuter le modèle spécifié, le rendant prêt pour l’interaction.
ollama pull <model> Télécharger le modèle spécifié sur votre système.
ollama list Listez tous les modèles téléchargés.
ollama ps Afficher les modèles en cours d’exécution.
ollama stop <model> Arrêter le modèle spécifié en cours d’exécution.
ollama rm <model> Supprimer le modèle spécifié de votre système.
ollama help Fournir de l’aide sur toute commande.

Gestion des modèles

  • Télécharger un modèle :

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    Cette commande télécharge le modèle spécifié (par exemple, Gemma 2B) sur votre système.

  • Exécuter un modèle :

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    Cette commande démarre le modèle spécifié et ouvre un REPL interactif pour l’interaction.

  • Lister les modèles :

    ollama list
    

    Cette commande liste tous les modèles téléchargés sur votre système.

  • Arrêter un modèle :

    ollama stop llama3.1:8b-instruct-q8_0
    

    Cette commande arrête le modèle spécifié en cours d’exécution.

Personnalisation des modèles

  • Définir un prompt système : À l’intérieur du REPL Ollama, vous pouvez définir un prompt système pour personnaliser le comportement du modèle :

    >>> /set system Pour toutes les questions posées, répondez en anglais simple en évitant autant que possible le jargon technique
    >>> /save ipe
    >>> /bye
    

    Ensuite, exécutez le modèle personnalisé :

    ollama run ipe
    

    Cela définit un prompt système et enregistre le modèle pour une utilisation future.

  • Créer un fichier de modèle personnalisé : Créez un fichier texte (par exemple, custom_model.txt) avec la structure suivante :

    FROM llama3.1
    SYSTEM [Vos instructions personnalisées ici]
    

    Ensuite, exécutez :

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    Cela crée un modèle personnalisé basé sur les instructions du fichier[3].

Utilisation d’Ollama avec des fichiers

  • Résumer le texte d’un fichier :

    ollama run llama3.2 "Résumez le contenu de ce fichier en 50 mots." < input.txt
    

    Cette commande résume le contenu de input.txt à l’aide du modèle spécifié.

  • Enregistrer les réponses du modèle dans un fichier :

    ollama run llama3.2 "Dites-moi sur les énergies renouvelables." > output.txt
    

    Cette commande enregistre la réponse du modèle dans output.txt.

Cas d’utilisation courants

  • Génération de texte :

    • Résumer un grand fichier texte :
      ollama run llama3.2 "Résumez le texte suivant :" < long-document.txt
      
    • Générer du contenu :
      ollama run llama3.2 "Écrivez un court article sur les avantages d’utiliser l’IA dans la santé." > article.txt
      
    • Répondre à des questions spécifiques :
      ollama run llama3.2 "Quelles sont les dernières tendances en IA, et comment vont-elles affecter la santé ?"
      

    .

  • Traitement et analyse des données :

    • Classer le texte en positif, négatif ou neutre :
      ollama run llama3.2 "Analysez le sentiment de ce commentaire client : 'Le produit est fantastique, mais la livraison était lente.'"
      
    • Catégoriser le texte dans des catégories prédéfinies : Utilisez des commandes similaires pour classer ou catégoriser le texte selon des critères prédéfinis.

Utilisation d’Ollama avec Python

  • Installer la bibliothèque Python Ollama :
    pip install ollama
    
  • Générer du texte à l’aide de Python :
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='qu’est-ce qu’un qubit ?')
    print(response['response'])
    
    Ce fragment de code génère du texte à l’aide du modèle et du prompt spécifiés.

Liens utiles