OpenClaw Guida Rapida: Installazione con Docker (Ollama GPU o Claude + CPU)

Installa OpenClaw localmente con Ollama

Indice

OpenClaw è un assistente AI ospitato in autonomia, progettato per funzionare con runtime locali per LLM come Ollama o con modelli basati su cloud come Claude Sonnet.

Questa guida rapida illustra come distribuire OpenClaw utilizzando Docker, configurare un modello locale alimentato da GPU o un modello cloud solo CPU e verificare che il tuo assistente AI funzioni correttamente dall’inizio alla fine.

Questa guida descrive una configurazione minima di OpenClaw per consentirti di vederlo in esecuzione e rispondere sulla tua macchina.

L’obiettivo è semplice:

  • Avviare OpenClaw.
  • Inviare una richiesta.
  • Confermare che funzioni.

Questa non è una guida per l’indurimento della produzione.
Questa non è una guida per l’ottimizzazione delle prestazioni.
Questo è un punto di partenza pratico.

Hai due opzioni:

  • Percorso A — GPU Locale utilizzando Ollama (consigliato se hai una GPU)
  • Percorso B — Solo CPU utilizzando Claude Sonnet 4.6 tramite l’API di Anthropic

Entrambi i percorsi condividono lo stesso processo di installazione centrale.

install openclaw steps GPU vs CPU

Se sei nuovo a OpenClaw e desideri una panoramica più approfondita della struttura del sistema, leggi la panoramica del sistema OpenClaw.

Requisiti di Sistema e Configurazione dell’Ambiente

OpenClaw è un sistema di tipo assistente che può connettersi a servizi esterni. Per questa Guida Rapida:

  • Utilizza account di prova ove possibile.
  • Evita di connettere sistemi di produzione sensibili.
  • Esegui tutto all’interno di Docker (consigliato).

L’isolamento è un’opzione predefinita valida quando si sperimenta con software di tipo agent.


Prerequisiti OpenClaw (GPU con Ollama o CPU con Claude)

Richiesto per Entrambi i Percorsi

  • Git
  • Docker Desktop (o Docker + Docker Compose)
  • Un terminale

Per il Percorso A (GPU Locale)

  • Una macchina con una GPU compatibile (consigliati NVIDIA o AMD)
  • Ollama installato

Per il Percorso B (CPU + Modello Cloud)

  • Una chiave API Anthropic
  • Accesso a Claude Sonnet 4.6

Passo 1 — Installazione di OpenClaw con Docker (Clonazione e Avvio)

OpenClaw può essere avviato utilizzando Docker Compose. Questo mantiene la configurazione contenuta e riproducibile.

Clona il repository

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Copia la configurazione dell’ambiente

cp .env.example .env

Apri .env nel tuo editor. Lo configureremo nel prossimo passo in base al percorso del modello scelto.

Avvia i container

docker compose up -d

Se tutto si avvia correttamente, dovresti vedere i container in esecuzione:

docker ps

A questo stadio, OpenClaw è in esecuzione — ma non è ancora connesso a un modello.


Passo 2 — Configurazione del Provider LLM (Ollama GPU o Claude CPU)

Ora decidi come desideri che funzioni l’inferenza.


Percorso A — GPU Locale con Ollama

Se hai una GPU disponibile, questa è l’opzione più semplice e autonoma.

Installa o Verifica Ollama

Se hai bisogno di una guida di installazione più dettagliata o desideri configurare le posizioni di archiviazione dei modelli, consulta:

Se Ollama non è installato:

curl -fsSL https://ollama.com/install.sh | sh

Verifica che funzioni:

ollama pull llama3
ollama run llama3

Se il modello risponde, l’inferenza funziona.

Configura OpenClaw per Utilizzare Ollama

Nel tuo file .env, configura:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Riavvia i container:

docker compose restart

OpenClaw instraderà ora le richieste alla tua istanza locale di Ollama.

Se stai decidendo quale modello eseguire su una GPU con 16GB di VRAM o desideri confronti di benchmark, consulta:

Per comprendere la concorrenza e il comportamento della CPU sotto carico:


Percorso B — Solo CPU Utilizzando Claude Sonnet 4.6

Se non hai una GPU, puoi utilizzare un modello ospitato.

Aggiungi la Tua Chiave API

Nel tuo file .env:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Riavvia:

docker compose restart

OpenClaw utilizzerà ora Claude Sonnet 4.6 per l’inferenza mentre l’orchestrazione viene eseguita localmente.

Questa configurazione funziona bene su macchine solo CPU perché il calcolo pesante del modello avviene nel cloud.

Se stai utilizzando modelli Anthropic qui, questo cambiamento nella politica di abbonamento di Claude spiega perché OpenClaw richiede una fatturazione basata sull’API invece del riutilizzo del piano Claude.


Passo 3 — Test di OpenClaw con il Tuo Primo Prompt

Una volta che i container sono in esecuzione e il modello è configurato, puoi testare l’assistente.

A seconda della tua configurazione, questo può avvenire tramite:

  • Un’interfaccia web
  • Un’integrazione di messaggistica
  • Un endpoint API locale

Per un test API di base:

curl http://localhost:3000/health

Dovresti vedere una risposta di stato “healthy” (sano).

Ora invia un prompt semplice:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Explain what OpenClaw does in simple terms."}'

Se ricevi una risposta strutturata, il sistema funziona.


Cosa Hai Just Eseguito

A questo punto, hai:

  • Un’istanza OpenClaw in esecuzione
  • Un provider LLM configurato (locale o cloud)
  • Un ciclo di richiesta-risposta funzionante

Se hai scelto il percorso GPU, l’inferenza avviene localmente tramite Ollama.

Se hai scelto il percorso CPU, l’inferenza avviene tramite Claude Sonnet 4.6, mentre l’orchestrazione, l’instradamento e la gestione della memoria vengono eseguiti all’interno dei tuoi container Docker locali.

L’interazione visibile può sembrare semplice. Sotto la superficie, più componenti coordinano l’elaborazione della tua richiesta.


Risoluzione dei Problemi di Installazione e Runtime di OpenClaw

Modello Non Risponde

  • Verifica la tua configurazione .env.
  • Controlla i log del container:
docker compose logs

Ollama Non Accessibile

  • Conferma che Ollama sia in esecuzione:
ollama list
  • Assicurati che l’URL base corrisponda al tuo ambiente.

Chiave API Non Valida

  • Controlla due volte ANTHROPIC_API_KEY
  • Riavvia i container dopo aver aggiornato .env

GPU Non Viene Utilizzata

  • Conferma che i driver della GPU siano installati.
  • Assicurati che Docker abbia l’accesso alla GPU abilitato.

Prossimi Passi Dopo l’Installazione di OpenClaw

Ora hai un’istanza OpenClaw funzionante.

Da qui, puoi:

  • Connettere piattaforme di messaggistica
  • Abilitare il recupero di documenti
  • Sperimentare strategie di instradamento
  • Aggiungere osservabilità e metriche
  • Ottimizzare le prestazioni e il comportamento dei costi

Le discussioni architetturali più approfondite hanno più senso una volta che il sistema è in esecuzione.

Metterlo in funzione è il primo passo.

Per ulteriori casi di studio sui sistemi AI, consulta la sezione Sistemi AI.