OpenClaw Quickstart: Installazione con Docker (Ollama GPU o Claude CPU)

Installa OpenClaw localmente con Ollama

Indice

OpenClaw è un assistente AI autoospitato progettato per funzionare con runtime locale LLM come Ollama o con modelli basati su cloud come Claude Sonnet.

Questo quickstart mostra come distribuire OpenClaw utilizzando Docker, configurare un modello locale alimentato da GPU o un modello su CPU basato su cloud, e verificare che il tuo assistente AI funzioni in modo end-to-end.

Questo documento guida attraverso un setup minimo di OpenClaw in modo che tu possa vederlo funzionare e rispondere sulla tua macchina.

L’obiettivo è semplice:

  • Far funzionare OpenClaw.
  • Inviare una richiesta.
  • Confermare che funziona.

Questo non è un documento per la messa in produzione. Questo non è un documento per l’ottimizzazione delle prestazioni. Questo è un punto di partenza pratico.

Hai due opzioni:

  • Percorso A — GPU locale utilizzando Ollama (raccomandato se hai una GPU)
  • Percorso B — Solo CPU utilizzando Claude Sonnet 4.6 tramite API di Anthropic

Entrambi i percorsi condividono lo stesso processo di installazione principale.

install openclaw steps GPU vs CPU

Se sei nuovo di OpenClaw e desideri un’overview più approfondita su come è strutturato il sistema, leggi il panoramica del sistema OpenClaw.

Requisiti del sistema e configurazione dell’ambiente

OpenClaw è un sistema di tipo assistente che può connettersi a servizi esterni. Per questo Quickstart:

  • Utilizza account di test quando possibile.
  • Evita di collegare sistemi sensibili in produzione.
  • Esegui il tutto all’interno di Docker (raccomandato).

L’isolamento è un buon default quando si sperimenta con software di tipo agente.


Requisiti di OpenClaw (GPU con Ollama o CPU con Claude)

Richiesti per entrambi i percorsi

  • Git
  • Docker Desktop (o Docker + Docker Compose)
  • Un terminale

Per il Percorso A (GPU locale)

  • Una macchina con una GPU compatibile (NVIDIA o AMD raccomandate)
  • Ollama installato

Per il Percorso B (CPU + modello su cloud)

  • Una chiave API di Anthropic
  • Accesso a Claude Sonnet 4.6

Passo 1 — Installare OpenClaw con Docker (Clona & Avvia)

OpenClaw può essere avviato utilizzando Docker Compose. Questo mantiene l’installazione contenuta e riproducibile.

Clona il repository

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Copia la configurazione dell’ambiente

cp .env.example .env

Apri .env nel tuo editor. Lo configureremo nel passo successivo in base al percorso del modello che sceglierai.

Avvia i container

docker compose up -d

Se tutto parte correttamente, dovresti vedere i container in esecuzione:

docker ps

A questo punto, OpenClaw è in esecuzione — ma non è ancora connesso a un modello.


Passo 2 — Configura il fornitore LLM (Ollama GPU o Claude CPU)

Ora decidi come desideri che l’inferenza funzioni.


Percorso A — GPU locale con Ollama

Se hai una GPU disponibile, questa è l’opzione più semplice e più autonoma.

Installa o Verifica Ollama

Se hai bisogno di una guida di installazione più dettagliata o se desideri configurare le posizioni di archiviazione dei modelli, vedi:

Se Ollama non è installato:

curl -fsSL https://ollama.com/install.sh | sh

Verifica che funzioni:

ollama pull llama3
ollama run llama3

Se il modello risponde, l’inferenza funziona.

Configura OpenClaw per utilizzare Ollama

Nel tuo file .env, configura:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Riavvia i container:

docker compose restart

OpenClaw utilizzerà ora le richieste per la tua istanza locale di Ollama.

Se stai decidendo quale modello eseguire su una GPU con 16GB di VRAM o se desideri confronti di benchmark, vedi:

Per comprendere la concorrenza e il comportamento della CPU sotto carico:


Percorso B — Solo CPU utilizzando Claude Sonnet 4.6

Se non hai una GPU, puoi utilizzare un modello ospitato.

Aggiungi la tua chiave API

Nel tuo file .env:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Riavvia:

docker compose restart

OpenClaw utilizzerà ora Claude Sonnet 4.6 per l’inferenza, mentre l’orchestrazione avviene localmente.

Questo setup funziona bene su macchine con solo CPU perché i calcoli pesanti del modello avvengono in cloud.


Passo 3 — Testa OpenClaw con il primo prompt

Una volta che i container sono in esecuzione e il modello è configurato, puoi testare l’assistente.

A seconda del tuo setup, potrebbe essere attraverso:

  • Un’interfaccia web
  • Un’integrazione di messaggistica
  • Un endpoint API locale

Per un test API base:

curl http://localhost:3000/health

Dovresti vedere una risposta di stato sana.

Ora invia un prompt semplice:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Spiega cosa fa OpenClaw in termini semplici."}'

Se ricevi una risposta strutturata, il sistema funziona.


Cosa Hai Appena Eseguito

A questo punto, hai:

  • Un’istanza OpenClaw in esecuzione
  • Un fornitore LLM configurato (locale o cloud)
  • Un ciclo di richiesta-risposta funzionante

Se hai scelto il percorso GPU, l’inferenza avviene localmente tramite Ollama.

Se hai scelto il percorso CPU, l’inferenza avviene tramite Claude Sonnet 4.6, mentre l’orchestrazione, il routing e il gestione della memoria avvengono all’interno dei tuoi container Docker locali.

L’interazione visibile potrebbe sembrare semplice. Sotto, diversi componenti si coordinano per processare la tua richiesta.


Risoluzione dei Problemi di Installazione e Funzionamento di OpenClaw

Modello Non Risponde

  • Verifica la configurazione del tuo file .env.
  • Controlla i log dei container:
docker compose logs

Ollama Non Raggiungibile

  • Conferma che Ollama sia in esecuzione:
ollama list
  • Assicurati che l’URL base corrisponda al tuo ambiente.

Chiave API Non Valida

  • Verifica nuovamente ANTHROPIC_API_KEY
  • Riavvia i container dopo aver aggiornato .env

GPU Non Utilizzata

  • Conferma che i driver della GPU siano installati.
  • Assicurati che Docker abbia accesso abilitato alla GPU.

Passi Successivi Dopo l’Installazione di OpenClaw

Ora hai un’istanza OpenClaw funzionante.

Da qui, puoi:

  • Collegare piattaforme di messaggistica
  • Abilitare la ricerca di documenti
  • Sperimentare con strategie di routing
  • Aggiungere osservabilità e metriche
  • Ottimizzare le prestazioni e il comportamento dei costi

Le discussioni architettoniche più approfondite acquistano senso una volta che il sistema è in esecuzione.

Farlo funzionare è il primo passo.