Ollama Feuille de rappel
L'ai compilé quelques-uns pour une utilisation ultérieure...
Voici la liste et les exemples des commandes Ollama les plus utiles (fiche de commandes Ollama) que j’ai compilées il y a un certain temps. J’espère qu’elles vous seront utiles.
Cette fiche de commandes Ollama se concentre sur les commandes CLI, la gestion des modèles et la personnalisation
Installation
- Option 1 : Télécharger depuis le site web
- Visitez ollama.com et téléchargez l’installeur pour votre système d’exploitation (Mac, Linux ou Windows).
- Option 2 : Installer via la ligne de commande
- Pour les utilisateurs Mac et Linux, utilisez la commande :
curl https://ollama.ai/install.sh | sh
- Suivez les instructions à l’écran et entrez votre mot de passe si nécessaire[3].
- Pour les utilisateurs Mac et Linux, utilisez la commande :
Configuration système requise
- Système d’exploitation : Mac ou Linux (version Windows en développement)
- Mémoire (RAM) : 8 Go minimum, 16 Go ou plus recommandé
- Stockage : Au moins ~10 Go d’espace libre
- Processeur : Un processeur relativement moderne (des dernières 5 années)[3].
Commandes CLI Ollama de base
Commande | Description |
---|---|
ollama serve |
Démarrer Ollama sur votre système local. |
ollama create <new_model> |
Créer un nouveau modèle à partir d’un modèle existant pour la personnalisation ou l’entraînement. |
ollama show <model> |
Afficher les détails d’un modèle spécifique, tels que sa configuration et sa date de publication. |
ollama run <model> |
Exécuter le modèle spécifié, le rendant prêt pour l’interaction. |
ollama pull <model> |
Télécharger le modèle spécifié sur votre système. |
ollama list |
Listez tous les modèles téléchargés. |
ollama ps |
Afficher les modèles en cours d’exécution. |
ollama stop <model> |
Arrêter le modèle spécifié en cours d’exécution. |
ollama rm <model> |
Supprimer le modèle spécifié de votre système. |
ollama help |
Fournir de l’aide sur toute commande. |
Gestion des modèles
-
Télécharger un modèle :
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Cette commande télécharge le modèle spécifié (par exemple, Gemma 2B) sur votre système.
-
Exécuter un modèle :
ollama run qwen2.5:32b-instruct-q3_K_S
Cette commande démarre le modèle spécifié et ouvre un REPL interactif pour l’interaction.
-
Lister les modèles :
ollama list
Cette commande liste tous les modèles téléchargés sur votre système.
-
Arrêter un modèle :
ollama stop llama3.1:8b-instruct-q8_0
Cette commande arrête le modèle spécifié en cours d’exécution.
Personnalisation des modèles
-
Définir un prompt système : À l’intérieur du REPL Ollama, vous pouvez définir un prompt système pour personnaliser le comportement du modèle :
>>> /set system Pour toutes les questions posées, répondez en anglais simple en évitant autant que possible le jargon technique >>> /save ipe >>> /bye
Ensuite, exécutez le modèle personnalisé :
ollama run ipe
Cela définit un prompt système et enregistre le modèle pour une utilisation future.
-
Créer un fichier de modèle personnalisé : Créez un fichier texte (par exemple,
custom_model.txt
) avec la structure suivante :FROM llama3.1 SYSTEM [Vos instructions personnalisées ici]
Ensuite, exécutez :
ollama create mymodel -f custom_model.txt ollama run mymodel
Cela crée un modèle personnalisé basé sur les instructions du fichier[3].
Utilisation d’Ollama avec des fichiers
-
Résumer le texte d’un fichier :
ollama run llama3.2 "Résumez le contenu de ce fichier en 50 mots." < input.txt
Cette commande résume le contenu de
input.txt
à l’aide du modèle spécifié. -
Enregistrer les réponses du modèle dans un fichier :
ollama run llama3.2 "Dites-moi sur les énergies renouvelables." > output.txt
Cette commande enregistre la réponse du modèle dans
output.txt
.
Cas d’utilisation courants
-
Génération de texte :
- Résumer un grand fichier texte :
ollama run llama3.2 "Résumez le texte suivant :" < long-document.txt
- Générer du contenu :
ollama run llama3.2 "Écrivez un court article sur les avantages d’utiliser l’IA dans la santé." > article.txt
- Répondre à des questions spécifiques :
ollama run llama3.2 "Quelles sont les dernières tendances en IA, et comment vont-elles affecter la santé ?"
.
- Résumer un grand fichier texte :
-
Traitement et analyse des données :
- Classer le texte en positif, négatif ou neutre :
ollama run llama3.2 "Analysez le sentiment de ce commentaire client : 'Le produit est fantastique, mais la livraison était lente.'"
- Catégoriser le texte dans des catégories prédéfinies : Utilisez des commandes similaires pour classer ou catégoriser le texte selon des critères prédéfinis.
- Classer le texte en positif, négatif ou neutre :
Utilisation d’Ollama avec Python
- Installer la bibliothèque Python Ollama :
pip install ollama
- Générer du texte à l’aide de Python :
Ce fragment de code génère du texte à l’aide du modèle et du prompt spécifiés.
import ollama response = ollama.generate(model='gemma:2b', prompt='qu’est-ce qu’un qubit ?') print(response['response'])
Liens utiles
- Déplacer les modèles Ollama vers un autre disque ou dossier
- Comment Ollama gère les requêtes parallèles
- Comment Ollama utilise les performances du processeur Intel et les cœurs efficaces
- Test de Deepseek-r1 sur Ollama
- Fiche de raccourcis Bash
- Modèles Qwen3 d’embedding et de reranking sur Ollama : performance d’avant-garde