Prise en main rapide d'OpenClaw : Installation avec Docker (Ollama GPU ou Claude + CPU)

Installer OpenClaw localement avec Ollama

Sommaire

OpenClaw est un assistant IA hébergé en propre, conçu pour fonctionner avec des runtime de LLM locaux comme Ollama ou avec des modèles basés sur le cloud tels que Claude Sonnet.

Ce tutoriel rapide montre comment déployer OpenClaw à l’aide de Docker, configurer soit un modèle local alimenté par GPU, soit un modèle cloud uniquement CPU, et vérifier que votre assistant IA fonctionne de bout en bout.

Ce guide vous guide à travers une configuration minimale d’OpenClaw afin que vous puissiez le voir fonctionner et répondre sur votre propre machine.

L’objectif est simple :

  • Faire fonctionner OpenClaw.
  • Envoyer une requête.
  • Confirmer que cela fonctionne.

Ce n’est pas un guide de durcissement de production. Ce n’est pas un guide d’optimisation des performances. C’est un point de départ pratique.

Vous avez deux options :

  • Chemin A — GPU local utilisant Ollama (recommandé si vous disposez d’un GPU)
  • Chemin B — CPU uniquement utilisant Claude Sonnet 4.6 via l’API Anthropic

Les deux chemins partagent le même processus d’installation de base.

install openclaw steps GPU vs CPU

Si vous êtes nouveau sur OpenClaw et souhaitez une vue d’ensemble plus approfondie de la structure du système, lisez la vue d’ensemble du système OpenClaw.

Exigences système et configuration de l’environnement

OpenClaw est un système de style assistant capable de se connecter à des services externes. Pour ce tutoriel rapide :

  • Utilisez des comptes de test autant que possible.
  • Évitez de connecter des systèmes de production sensibles.
  • Exécutez-le dans Docker (recommandé).

L’isolement est une bonne valeur par défaut lors de l’expérimentation de logiciels de style agent.


Prérequis OpenClaw (GPU avec Ollama ou CPU avec Claude)

Requis pour les deux chemins

  • Git
  • Docker Desktop (ou Docker + Docker Compose)
  • Un terminal

Pour le chemin A (GPU local)

  • Une machine avec un GPU compatible (NVIDIA ou AMD recommandé)
  • Ollama installé

Pour le chemin B (CPU + Modèle Cloud)

  • Une clé API Anthropic
  • Accès à Claude Sonnet 4.6

Étape 1 — Installation d’OpenClaw avec Docker (Clonage et Démarrage)

OpenClaw peut être démarré à l’aide de Docker Compose. Cela maintient la configuration contenue et reproductible.

Cloner le dépôt

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Copier la configuration de l’environnement

cp .env.example .env

Ouvrez .env dans votre éditeur. Nous le configurerons à l’étape suivante en fonction du chemin de modèle que vous choisissez.

Démarrer les conteneurs

docker compose up -d

Si tout démarre correctement, vous devriez voir des conteneurs en cours d’exécution :

docker ps

À ce stade, OpenClaw est en cours d’exécution, mais il n’est pas encore connecté à un modèle.


Étape 2 — Configuration du fournisseur LLM (Ollama GPU ou Claude CPU)

Décidez maintenant comment vous voulez que l’inférence fonctionne.


Chemin A — GPU local avec Ollama

Si vous avez un GPU disponible, c’est l’option la plus simple et la plus autonome.

Installer ou vérifier Ollama

Si vous avez besoin d’un guide d’installation plus détaillé ou si vous souhaitez configurer les emplacements de stockage des modèles, consultez :

Si Ollama n’est pas installé :

curl -fsSL https://ollama.com/install.sh | sh

Vérifiez qu’il fonctionne :

ollama pull llama3
ollama run llama3

Si le modèle répond, l’inférence fonctionne.

Configurer OpenClaw pour utiliser Ollama

Dans votre fichier .env, configurez :

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Redémarrez les conteneurs :

docker compose restart

OpenClaw routera désormais les requêtes vers votre instance locale d’Ollama.

Si vous hésitez sur quel modèle exécuter sur un GPU 16 Go ou si vous souhaitez des comparaisons de benchmarks, consultez :

Pour comprendre la concurrence et le comportement CPU sous charge :


Chemin B — CPU uniquement utilisant Claude Sonnet 4.6

Si vous ne disposez pas de GPU, vous pouvez utiliser un modèle hébergé.

Ajouter votre clé API

Dans votre fichier .env :

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Redémarrez :

docker compose restart

OpenClaw utilisera désormais Claude Sonnet 4.6 pour l’inférence tandis que l’orchestration s’exécute localement.

Cette configuration fonctionne bien sur les machines CPU uniquement car les calculs lourdes du modèle se produisent dans le cloud.

Si vous utilisez des modèles Anthropic ici, ce changement de politique d’abonnement Claude explique pourquoi OpenClaw nécessite une facturation basée sur l’API au lieu de la réutilisation du plan Claude.


Étape 3 — Tester OpenClaw avec votre premier prompt

Une fois les conteneurs en cours d’exécution et le modèle configuré, vous pouvez tester l’assistant.

Selon votre configuration, cela peut se faire via :

  • Une interface web
  • Une intégration de messagerie
  • Un point de terminaison API local

Pour un test API de base :

curl http://localhost:3000/health

Vous devriez voir une réponse de statut sain.

Maintenant, envoyez un prompt simple :

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Explain what OpenClaw does in simple terms."}'

Si vous recevez une réponse structurée, le système fonctionne.


Ce que vous venez d’exécuter

À ce stade, vous avez :

  • Une instance OpenClaw en cours d’exécution
  • Un fournisseur LLM configuré (local ou cloud)
  • Une boucle de requête-réponse fonctionnelle

Si vous avez choisi le chemin GPU, l’inférence se produit localement via Ollama.

Si vous avez choisi le chemin CPU, l’inférence se produit via Claude Sonnet 4.6, tandis que l’orchestration, le routage et la gestion de la mémoire s’exécutent à l’intérieur de vos conteneurs Docker locaux.

L’interaction visible peut sembler simple. En dessous, plusieurs composants coordonnent le traitement de votre requête.


Dépannage des problèmes d’installation et d’exécution d’OpenClaw

Le modèle ne répond pas

  • Vérifiez votre configuration .env.
  • Consultez les journaux des conteneurs :
docker compose logs

Ollama inaccessible

  • Confirmez qu’Ollama est en cours d’exécution :
ollama list
  • Assurez-vous que l’URL de base correspond à votre environnement.

Clé API invalide

  • Vérifiez à nouveau ANTHROPIC_API_KEY
  • Redémarrez les conteneurs après avoir mis à jour .env

Le GPU n’est pas utilisé

  • Confirmez que les pilotes GPU sont installés.
  • Assurez-vous que l’accès GPU Docker est activé.

Prochaines étapes après l’installation d’OpenClaw

Vous avez maintenant une instance OpenClaw fonctionnelle.

D’ici, vous pouvez :

  • Connecter des plateformes de messagerie
  • Activer la récupération de documents
  • Expérimenter avec des stratégies de routage
  • Ajouter l’observabilité et les métriques
  • Ajuster les performances et le comportement des coûts

Les discussions architecturales plus approfondies ont plus de sens une fois que le système est en cours d’exécution.

Le rendre opérationnel est la première étape.

Pour plus d’études de cas sur les systèmes IA, consultez la section Systèmes IA.