Início Rápido do OpenClaw: Instale com Docker (Ollama GPU ou Claude + CPU)

Instale o OpenClaw localmente com o Ollama

Conteúdo da página

O OpenClaw é um assistente de IA autohospedado projetado para funcionar com tempos de execução de LLM locais, como Ollama, ou com modelos baseados em nuvem, como o Claude Sonnet.

Este guia rápido mostra como implantar o OpenClaw usando Docker, configurar um modelo local com GPU ou um modelo apenas com CPU na nuvem e verificar se o seu assistente de IA está funcionando do início ao fim.

Este guia percorre uma configuração mínima do OpenClaw para que você possa vê-lo em execução e respondendo na sua própria máquina.

O objetivo é simples:

  • Fazer o OpenClaw funcionar.
  • Enviar uma solicitação.
  • Confirmar que funciona.

Este não é um guia de endurecimento para produção. Este não é um guia de ajuste de desempenho. Este é um ponto de partida prático.

Você tem duas opções:

  • Caminho A — GPU Local usando o Ollama (recomendado se você tiver uma GPU)
  • Caminho B — Apenas CPU usando o Claude Sonnet 4.6 via API da Anthropic

Ambos os caminhos compartilham o mesmo processo de instalação central.

passos de instalação do openclaw GPU vs CPU

Se você é novo no OpenClaw e deseja uma visão mais aprofundada de como o sistema é estruturado, leia a Visão geral do sistema OpenClaw.

Requisitos de Sistema e Configuração do Ambiente

O OpenClaw é um sistema estilo assistente que pode se conectar a serviços externos. Para este Guia Rápido:

  • Use contas de teste sempre que possível.
  • Evite conectar sistemas de produção sensíveis.
  • Execute dentro do Docker (recomendado).

O isolamento é uma boa predefinição ao experimentar software estilo agente.


Pré-requisitos do OpenClaw (GPU com Ollama ou CPU com Claude)

Necessário para Ambos os Caminhos

  • Git
  • Docker Desktop (ou Docker + Docker Compose)
  • Um terminal

Para o Caminho A (GPU Local)

  • Uma máquina com uma GPU compatível (NVIDIA ou AMD recomendadas)
  • Ollama instalado

Para o Caminho B (CPU + Modelo em Nuvem)

  • Uma chave de API da Anthropic
  • Acesso ao Claude Sonnet 4.6

Passo 1 — Instalar o OpenClaw com Docker (Clonar e Iniciar)

O OpenClaw pode ser iniciado usando o Docker Compose. Isso mantém a configuração contida e reprodutível.

Clone o repositório

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Copie a configuração de ambiente

cp .env.example .env

Abra .env no seu editor. Configuraremos no próximo passo, dependendo do caminho do modelo escolhido.

Inicie os containers

docker compose up -d

Se tudo iniciar corretamente, você deverá ver os containers em execução:

docker ps

Nesta etapa, o OpenClaw está em execução — mas ainda não está conectado a um modelo.


Passo 2 — Configurar o Provedor de LLM (Ollama GPU ou Claude CPU)

Agora decida como você quer que a inferência funcione.


Caminho A — GPU Local com Ollama

Se você tiver uma GPU disponível, esta é a opção mais simples e mais autocontida.

Instalar ou Verificar o Ollama

Se você precisar de um guia de instalação mais detalhado ou quiser configurar locais de armazenamento de modelos, consulte:

Se o Ollama não estiver instalado:

curl -fsSL https://ollama.com/install.sh | sh

Verifique se funciona:

ollama pull llama3
ollama run llama3

Se o modelo responder, a inferência está funcionando.

Configurar o OpenClaw para Usar o Ollama

No seu arquivo .env, configure:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Reinicie os containers:

docker compose restart

O OpenClaw agora encaminhará solicitações para a sua instância local do Ollama.

Se você está decidindo qual modelo executar em uma GPU de 16GB ou deseja comparações de benchmark, consulte:

Para entender a concorrência e o comportamento da CPU sob carga:


Caminho B — Apenas CPU Usando Claude Sonnet 4.6

Se você não tiver uma GPU, pode usar um modelo hospedado.

Adicione Sua Chave de API

No seu arquivo .env:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Reinicie:

docker compose restart

O OpenClaw agora usará o Claude Sonnet 4.6 para inferência enquanto a orquestração é executada localmente.

Esta configuração funciona bem em máquinas apenas com CPU porque o cálculo pesado do modelo ocorre na nuvem.

Se você estiver usando modelos da Anthropic aqui, esta mudança na política de assinatura do Claude explica por que o OpenClaw exige faturamento baseado em API em vez de reutilização do plano do Claude.


Passo 3 — Testar o OpenClaw com o Seu Primeiro Prompt

Uma vez que os containers estejam em execução e o modelo esteja configurado, você pode testar o assistente.

Dependendo da sua configuração, isso pode ser feito através de:

  • Uma interface web
  • Uma integração de mensagens
  • Um endpoint de API local

Para um teste de API básico:

curl http://localhost:3000/health

Você deverá ver uma resposta de status saudável.

Agora envie um prompt simples:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Explain what OpenClaw does in simple terms."}'

Se você receber uma resposta estruturada, o sistema está funcionando.


O Que Você Acabou de Executar

Neste ponto, você tem:

  • Uma instância do OpenClaw em execução
  • Um provedor de LLM configurado (local ou nuvem)
  • Um loop de solicitação-resposta funcionando

Se você escolheu o caminho da GPU, a inferência ocorre localmente via Ollama.

Se você escolheu o caminho da CPU, a inferência ocorre via Claude Sonnet 4.6, enquanto a orquestração, roteamento e manipulação de memória são executados dentro dos seus containers Docker locais.

A interação visível pode parecer simples. Por baixo, vários componentes coordenam-se para processar sua solicitação.


Solução de Problemas de Instalação e Execução do OpenClaw

Modelo Não Respondendo

  • Verifique sua configuração .env.
  • Verifique os registros do container:
docker compose logs

Ollama Inacessível

  • Confirme que o Ollama está em execução:
ollama list
  • Garanta que a URL base corresponda ao seu ambiente.

Chave de API Inválida

  • Verifique novamente ANTHROPIC_API_KEY
  • Reinicie os containers após atualizar .env

GPU Não Está Sendo Utilizada

  • Confirme que os drivers de GPU estão instalados.
  • Garanta que o Docker tenha acesso à GPU habilitado.

Próximos Passos Após Instalar o OpenClaw

Agora você tem uma instância do OpenClaw funcionando.

A partir daqui, você pode:

  • Conectar plataformas de mensagens
  • Habilitar recuperação de documentos
  • Experimentar estratégias de roteamento
  • Adicionar observabilidade e métricas
  • Ajustar desempenho e comportamento de custos

As discussões arquitetônicas mais profundas fazem mais sentido uma vez que o sistema esteja em execução.

Colocá-lo em operação é o primeiro passo.

Para mais estudos de caso de sistemas de IA, consulte a seção Sistemas de IA.