OpenClaw Quickstart: Instalación con Docker (GPU de Ollama o CPU de Claude)

Instale OpenClaw localmente con Ollama

Índice

OpenClaw es un asistente de IA autohospedado diseñado para ejecutarse con entornos locales de LLM como Ollama o con modelos basados en la nube como Claude Sonnet.

Este tutorial rápido muestra cómo desplegar OpenClaw usando Docker, configurar ya sea un modelo local con GPU o un modelo basado en la nube con solo CPU, y verificar que tu asistente de IA funcione de extremo a extremo.

Este guía recorre una configuración mínima de OpenClaw para que puedas verlo funcionando y respondiendo en tu propia máquina.

El objetivo es simple:

  • Poner en marcha OpenClaw.
  • Enviar una solicitud.
  • Confirmar que funciona.

Este no es un guía de endurecimiento para producción. Este no es un guía de ajuste de rendimiento. Este es un punto de partida práctico.

Tienes dos opciones:

  • Ruta A — GPU local usando Ollama (recomendado si tienes una GPU)
  • Ruta B — Solo CPU usando Claude Sonnet 4.6 a través de la API de Anthropic

Ambas rutas comparten el mismo proceso de instalación básico.

pasos de instalación de openclaw gpu vs cpu

Si eres nuevo en OpenClaw y quieres una visión más profunda de cómo está estructurado el sistema, lee el panorama del sistema OpenClaw.

Requisitos del sistema y configuración del entorno

OpenClaw es un sistema estilo asistente que puede conectarse a servicios externos. Para este Quickstart:

  • Usa cuentas de prueba siempre que sea posible.
  • Evita conectar sistemas de producción sensibles.
  • Ejecútalo dentro de Docker (recomendado).

La aislamiento es una buena opción predeterminada al experimentar con software estilo agente.


Requisitos previos de OpenClaw (GPU con Ollama o CPU con Claude)

Requerido para ambas rutas

  • Git
  • Docker Desktop (o Docker + Docker Compose)
  • Un terminal

Para la Ruta A (GPU local)

  • Una máquina con una GPU compatible (NVIDIA o AMD recomendada)
  • Ollama instalado

Para la Ruta B (CPU + modelo en la nube)

  • Una clave de API de Anthropic
  • Acceso a Claude Sonnet 4.6

Paso 1 — Instalar OpenClaw con Docker (Clonar y iniciar)

OpenClaw puede iniciarse usando Docker Compose. Esto mantiene la configuración contenida y reproducible.

Clonar el repositorio

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Copiar la configuración del entorno

cp .env.example .env

Abre .env en tu editor. Lo configuraremos en el siguiente paso dependiendo de la ruta del modelo que elijas.

Iniciar los contenedores

docker compose up -d

Si todo inicia correctamente, deberías ver los contenedores en ejecución:

docker ps

En este momento, OpenClaw está en ejecución — pero aún no está conectado a un modelo.


Paso 2 — Configurar el proveedor de LLM (Ollama GPU o Claude CPU)

Ahora decide cómo quieres que funcione la inferencia.


Ruta A — GPU local con Ollama

Si tienes una GPU disponible, esta es la opción más simple y más autónoma.

Instalar o verificar Ollama

Si necesitas una guía de instalación más detallada o quieres configurar ubicaciones de almacenamiento de modelos, ve a:

Si Ollama no está instalado:

curl -fsSL https://ollama.com/install.sh | sh

Verifica que funcione:

ollama pull llama3
ollama run llama3

Si el modelo responde, la inferencia está funcionando.

Configurar OpenClaw para usar Ollama

En tu archivo .env, configura:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Reinicia los contenedores:

docker compose restart

OpenClaw ahora enrutarà las solicitudes a tu instancia local de Ollama.

Si estás decidiendo qué modelo ejecutar en una GPU con 16 GB de VRAM o quieres comparaciones de rendimiento, ve a:

Para entender la concurrencia y el comportamiento de la CPU bajo carga:


Ruta B — Solo CPU usando Claude Sonnet 4.6

Si no tienes una GPU, puedes usar un modelo alojado.

Añade tu clave de API

En tu archivo .env:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Reinicia:

docker compose restart

OpenClaw ahora usará Claude Sonnet 4.6 para la inferencia, mientras que la orquestación se ejecutará localmente.

Esta configuración funciona bien en máquinas con solo CPU porque el cálculo pesado del modelo ocurre en la nube.


Paso 3 — Probar OpenClaw con tu primer prompt

Una vez que los contenedores estén en ejecución y el modelo esté configurado, puedes probar el asistente.

Dependiendo de tu configuración, esto puede ser a través de:

  • Una interfaz web
  • Una integración de mensajería
  • Un punto final de API local

Para una prueba básica de API:

curl http://localhost:3000/health

Deberías ver una respuesta de estado saludable.

Ahora envía un prompt simple:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Explica qué hace OpenClaw en términos simples."}'

Si recibes una respuesta estructurada, el sistema está funcionando.


Lo que acabas de ejecutar

En este punto, tienes:

  • Una instancia de OpenClaw en ejecución
  • Un proveedor de LLM configurado (local o en la nube)
  • Un bucle de solicitud-respuesta funcional

Si elegiste la ruta de la GPU, la inferencia ocurre localmente a través de Ollama.

Si elegiste la ruta de la CPU, la inferencia ocurre a través de Claude Sonnet 4.6, mientras que la orquestación, enrutamiento y manejo de memoria se ejecutan dentro de tus contenedores locales de Docker.

La interacción visible puede parecer simple. Debajo, varios componentes se coordinan para procesar tu solicitud.


Solución de problemas en la instalación y ejecución de OpenClaw

El modelo no responde

  • Verifica tu configuración en .env.
  • Revisa los registros de los contenedores:
docker compose logs

Ollama no alcanzable

  • Confirma que Ollama esté en ejecución:
ollama list
  • Asegúrate de que la URL base coincida con tu entorno.

Clave de API inválida

  • Revisa ANTHROPIC_API_KEY
  • Reinicia los contenedores después de actualizar .env

No se está usando la GPU

  • Confirma que los controladores de GPU estén instalados.
  • Asegúrate de que Docker tenga acceso habilitado a la GPU.

Pasos siguientes después de instalar OpenClaw

Ahora tienes una instancia de OpenClaw funcional.

Desde aquí, puedes:

  • Conectar plataformas de mensajería
  • Habilitar recuperación de documentos
  • Experimentar con estrategias de enrutamiento
  • Añadir observabilidad y métricas
  • Ajustar el rendimiento y el comportamiento de costos

Las discusiones arquitectónicas más profundas tienen más sentido una vez que el sistema esté en ejecución.

Ponerlo en funcionamiento es el primer paso.