OpenClaw Quickstart : Installation avec Docker (Ollama GPU ou Claude CPU)
Installez OpenClaw localement avec Ollama
OpenClaw est un assistant IA auto-hébergé conçu pour fonctionner avec des runtimes locaux de LLM comme Ollama ou avec des modèles basés en nuage tels que Claude Sonnet.
Ce guide de mise en route montre comment déployer OpenClaw à l’aide de Docker, configurer soit un modèle local alimenté par un GPU, soit un modèle uniquement en CPU basé en nuage, et vérifier que votre assistant IA fonctionne correctement du début à la fin.
Ce guide vous accompagne dans une configuration minimale d’OpenClaw afin que vous puissiez le voir fonctionner et répondre sur votre propre machine.
L’objectif est simple :
- Mettre OpenClaw en marche.
- Envoyer une requête.
- Confirmer qu’il fonctionne.
Ce n’est pas un guide de renforcement pour la production. Ce n’est pas un guide d’optimisation des performances. C’est un point de départ pratique.
Vous avez deux options :
- Chemin A — GPU local en utilisant Ollama (recommandé si vous avez un GPU)
- Chemin B — uniquement en CPU en utilisant Claude Sonnet 4.6 via l’API Anthropic
Les deux chemins partagent le même processus d’installation de base.

Si vous êtes nouveau dans OpenClaw et que vous souhaitez un aperçu plus approfondi de la manière dont le système est structuré, lisez le aperçu du système OpenClaw.
Exigences du système et configuration de l’environnement
OpenClaw est un système de type assistant pouvant se connecter à des services externes. Pour ce guide de mise en route :
- Utilisez des comptes de test autant que possible.
- Évitez de connecter des systèmes de production sensibles.
- Exécutez-le à l’intérieur de Docker (recommandé).
L’isolement est une bonne pratique par défaut lors de l’expérimentation avec des logiciels de type agent.
Prérequis d’OpenClaw (GPU avec Ollama ou CPU avec Claude)
Requis pour les deux chemins
- Git
- Docker Desktop (ou Docker + Docker Compose)
- Un terminal
Pour le Chemin A (GPU local)
- Une machine avec un GPU compatible (NVIDIA ou AMD recommandés)
- Ollama installé
Pour le Chemin B (CPU + modèle en nuage)
- Une clé API Anthropic
- Accès à Claude Sonnet 4.6
Étape 1 — Installer OpenClaw avec Docker (Cloner et démarrer)
OpenClaw peut être démarré à l’aide de Docker Compose. Cela permet de garder la configuration contenant et reproductible.
Cloner le dépôt
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Copier la configuration d’environnement
cp .env.example .env
Ouvrez .env dans votre éditeur. Nous le configurerons à l’étape suivante selon le chemin du modèle que vous avez choisi.
Démarrer les conteneurs
docker compose up -d
Si tout démarre correctement, vous devriez voir les conteneurs en cours d’exécution :
docker ps
À ce stade, OpenClaw est en cours d’exécution — mais il n’est pas encore connecté à un modèle.
Étape 2 — Configurer le fournisseur LLM (Ollama GPU ou Claude CPU)
Maintenant, décidez de la manière dont vous souhaitez que l’inférence fonctionne.
Chemin A — GPU local avec Ollama
Si vous avez un GPU disponible, c’est l’option la plus simple et la plus autonome.
Installer ou vérifier Ollama
Si vous avez besoin d’un guide d’installation plus détaillé ou si vous souhaitez configurer les emplacements de stockage des modèles, consultez :
- Installer Ollama et configurer l’emplacement des modèles
- Feuille de triche Ollama CLI : ls, serve, run, ps + autres commandes (mise à jour 2026)
Si Ollama n’est pas installé :
curl -fsSL https://ollama.com/install.sh | sh
Vérifiez qu’il fonctionne :
ollama pull llama3
ollama run llama3
Si le modèle répond, l’inférence fonctionne.
Configurer OpenClaw pour utiliser Ollama
Dans votre fichier .env, configurez :
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Redémarrez les conteneurs :
docker compose restart
OpenClaw utilisera désormais vos instances Ollama locales pour les requêtes.
Si vous décidez quel modèle exécuter sur un GPU avec 16 Go de VRAM ou si vous souhaitez des comparaisons de benchmarks, consultez :
Pour comprendre la concurrence et le comportement du CPU sous charge :
- Comment Ollama gère les demandes parallèles
- Test : Comment Ollama utilise les performances du CPU Intel et les cœurs efficaces
Chemin B — Uniquement en CPU avec Claude Sonnet 4.6
Si vous n’avez pas de GPU, vous pouvez utiliser un modèle hébergé.
Ajouter votre clé API
Dans votre fichier .env :
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=votre_clé_api_ici
ANTHROPIC_MODEL=claude-sonnet-4-6
Redémarrez :
docker compose restart
OpenClaw utilisera désormais Claude Sonnet 4.6 pour l’inférence, tandis que l’orchestration s’exécutera localement.
Ce paramétrage fonctionne bien sur les machines uniquement en CPU car le calcul lourd du modèle se fait en nuage.
Étape 3 — Tester OpenClaw avec votre première requête
Une fois les conteneurs en cours d’exécution et le modèle configuré, vous pouvez tester l’assistant.
Selon votre configuration, cela peut se faire via :
- Une interface web
- Une intégration de messagerie
- Un point de terminaison API local
Pour un test basique de l’API :
curl http://localhost:3000/health
Vous devriez voir une réponse d’état saine.
Maintenant, envoyez une requête simple :
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Expliquez simplement ce qu’est OpenClaw."}'
Si vous recevez une réponse structurée, le système fonctionne.
Ce que vous venez de faire
À ce stade, vous avez :
- Une instance OpenClaw en cours d’exécution
- Un fournisseur LLM configuré (local ou en nuage)
- Un cycle de requête-réponse fonctionnel
Si vous avez choisi le chemin GPU, l’inférence se fait localement via Ollama.
Si vous avez choisi le chemin CPU, l’inférence se fait via Claude Sonnet 4.6, tandis que l’orchestration, le routage et le traitement de la mémoire s’exécutent à l’intérieur de vos conteneurs Docker locaux.
L’interaction visible peut sembler simple. En dessous, plusieurs composants s’organisent pour traiter votre requête.
Dépannage des problèmes d’installation et d’exécution d’OpenClaw
Modèle non répondant
- Vérifiez votre configuration
.env. - Consultez les journaux des conteneurs :
docker compose logs
Ollama non atteignable
- Confirmez que Ollama est en cours d’exécution :
ollama list
- Assurez-vous que l’URL de base correspond à votre environnement.
Clé API invalide
- Vérifiez à nouveau
ANTHROPIC_API_KEY. - Redémarrez les conteneurs après avoir mis à jour
.env.
GPU non utilisé
- Confirmez que les pilotes GPU sont installés.
- Assurez-vous que Docker a accès au GPU activé.
Étapes suivantes après l’installation d’OpenClaw
Vous avez désormais une instance OpenClaw fonctionnelle.
À partir de maintenant, vous pouvez :
- Connecter des plateformes de messagerie
- Activer la récupération de documents
- Expérimenter avec des stratégies de routage
- Ajouter des outils d’observabilité et des métriques
- Ajuster les performances et le comportement des coûts
Les discussions architecturales plus approfondies prennent plus de sens une fois que le système est en cours d’exécution.
Mettre le système en marche est la première étape.