OpenClaw Guida Rapida: Installazione con Docker (Ollama GPU o Claude + CPU)
Installa OpenClaw localmente con Ollama
OpenClaw è un assistente AI ospitato in autonomia, progettato per funzionare con runtime locali per LLM come Ollama o con modelli basati su cloud come Claude Sonnet.
Questa guida rapida illustra come distribuire OpenClaw utilizzando Docker, configurare un modello locale alimentato da GPU o un modello cloud solo CPU e verificare che il tuo assistente AI funzioni correttamente dall’inizio alla fine.
Questa guida descrive una configurazione minima di OpenClaw per consentirti di vederlo in esecuzione e rispondere sulla tua macchina.
L’obiettivo è semplice:
- Avviare OpenClaw.
- Inviare una richiesta.
- Confermare che funzioni.
Questa non è una guida per l’indurimento della produzione.
Questa non è una guida per l’ottimizzazione delle prestazioni.
Questo è un punto di partenza pratico.
Hai due opzioni:
- Percorso A — GPU Locale utilizzando Ollama (consigliato se hai una GPU)
- Percorso B — Solo CPU utilizzando Claude Sonnet 4.6 tramite l’API di Anthropic
Entrambi i percorsi condividono lo stesso processo di installazione centrale.

Se sei nuovo a OpenClaw e desideri una panoramica più approfondita della struttura del sistema, leggi la panoramica del sistema OpenClaw.
Requisiti di Sistema e Configurazione dell’Ambiente
OpenClaw è un sistema di tipo assistente che può connettersi a servizi esterni. Per questa Guida Rapida:
- Utilizza account di prova ove possibile.
- Evita di connettere sistemi di produzione sensibili.
- Esegui tutto all’interno di Docker (consigliato).
L’isolamento è un’opzione predefinita valida quando si sperimenta con software di tipo agent.
Prerequisiti OpenClaw (GPU con Ollama o CPU con Claude)
Richiesto per Entrambi i Percorsi
- Git
- Docker Desktop (o Docker + Docker Compose)
- Un terminale
Per il Percorso A (GPU Locale)
- Una macchina con una GPU compatibile (consigliati NVIDIA o AMD)
- Ollama installato
Per il Percorso B (CPU + Modello Cloud)
- Una chiave API Anthropic
- Accesso a Claude Sonnet 4.6
Passo 1 — Installazione di OpenClaw con Docker (Clonazione e Avvio)
OpenClaw può essere avviato utilizzando Docker Compose. Questo mantiene la configurazione contenuta e riproducibile.
Clona il repository
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Copia la configurazione dell’ambiente
cp .env.example .env
Apri .env nel tuo editor. Lo configureremo nel prossimo passo in base al percorso del modello scelto.
Avvia i container
docker compose up -d
Se tutto si avvia correttamente, dovresti vedere i container in esecuzione:
docker ps
A questo stadio, OpenClaw è in esecuzione — ma non è ancora connesso a un modello.
Passo 2 — Configurazione del Provider LLM (Ollama GPU o Claude CPU)
Ora decidi come desideri che funzioni l’inferenza.
Percorso A — GPU Locale con Ollama
Se hai una GPU disponibile, questa è l’opzione più semplice e autonoma.
Installa o Verifica Ollama
Se hai bisogno di una guida di installazione più dettagliata o desideri configurare le posizioni di archiviazione dei modelli, consulta:
- Installa Ollama e Configura la Posizione dei Modelli
- Ollama CLI Cheatsheet: ls, serve, run, ps + altri comandi (aggiornamento 2026)
Se Ollama non è installato:
curl -fsSL https://ollama.com/install.sh | sh
Verifica che funzioni:
ollama pull llama3
ollama run llama3
Se il modello risponde, l’inferenza funziona.
Configura OpenClaw per Utilizzare Ollama
Nel tuo file .env, configura:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Riavvia i container:
docker compose restart
OpenClaw instraderà ora le richieste alla tua istanza locale di Ollama.
Se stai decidendo quale modello eseguire su una GPU con 16GB di VRAM o desideri confronti di benchmark, consulta:
Per comprendere la concorrenza e il comportamento della CPU sotto carico:
- Come Ollama Gestisce le Richieste Parallele
- Test: Come Ollama Utilizza le Prestazioni della CPU Intel e i Core Efficient
Percorso B — Solo CPU Utilizzando Claude Sonnet 4.6
Se non hai una GPU, puoi utilizzare un modello ospitato.
Aggiungi la Tua Chiave API
Nel tuo file .env:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
Riavvia:
docker compose restart
OpenClaw utilizzerà ora Claude Sonnet 4.6 per l’inferenza mentre l’orchestrazione viene eseguita localmente.
Questa configurazione funziona bene su macchine solo CPU perché il calcolo pesante del modello avviene nel cloud.
Se stai utilizzando modelli Anthropic qui, questo cambiamento nella politica di abbonamento di Claude spiega perché OpenClaw richiede una fatturazione basata sull’API invece del riutilizzo del piano Claude.
Passo 3 — Test di OpenClaw con il Tuo Primo Prompt
Una volta che i container sono in esecuzione e il modello è configurato, puoi testare l’assistente.
A seconda della tua configurazione, questo può avvenire tramite:
- Un’interfaccia web
- Un’integrazione di messaggistica
- Un endpoint API locale
Per un test API di base:
curl http://localhost:3000/health
Dovresti vedere una risposta di stato “healthy” (sano).
Ora invia un prompt semplice:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Explain what OpenClaw does in simple terms."}'
Se ricevi una risposta strutturata, il sistema funziona.
Cosa Hai Just Eseguito
A questo punto, hai:
- Un’istanza OpenClaw in esecuzione
- Un provider LLM configurato (locale o cloud)
- Un ciclo di richiesta-risposta funzionante
Se hai scelto il percorso GPU, l’inferenza avviene localmente tramite Ollama.
Se hai scelto il percorso CPU, l’inferenza avviene tramite Claude Sonnet 4.6, mentre l’orchestrazione, l’instradamento e la gestione della memoria vengono eseguiti all’interno dei tuoi container Docker locali.
L’interazione visibile può sembrare semplice. Sotto la superficie, più componenti coordinano l’elaborazione della tua richiesta.
Risoluzione dei Problemi di Installazione e Runtime di OpenClaw
Modello Non Risponde
- Verifica la tua configurazione
.env. - Controlla i log del container:
docker compose logs
Ollama Non Accessibile
- Conferma che Ollama sia in esecuzione:
ollama list
- Assicurati che l’URL base corrisponda al tuo ambiente.
Chiave API Non Valida
- Controlla due volte
ANTHROPIC_API_KEY - Riavvia i container dopo aver aggiornato
.env
GPU Non Viene Utilizzata
- Conferma che i driver della GPU siano installati.
- Assicurati che Docker abbia l’accesso alla GPU abilitato.
Prossimi Passi Dopo l’Installazione di OpenClaw
Ora hai un’istanza OpenClaw funzionante.
Da qui, puoi:
- Connettere piattaforme di messaggistica
- Abilitare il recupero di documenti
- Sperimentare strategie di instradamento
- Aggiungere osservabilità e metriche
- Ottimizzare le prestazioni e il comportamento dei costi
Le discussioni architetturali più approfondite hanno più senso una volta che il sistema è in esecuzione.
Metterlo in funzione è il primo passo.
Per ulteriori casi di studio sui sistemi AI, consulta la sezione Sistemi AI.