OpenClaw Quickstart: Instalación con Docker (GPU de Ollama o CPU de Claude)
Instale OpenClaw localmente con Ollama
OpenClaw es un asistente de IA autohospedado diseñado para ejecutarse con entornos locales de LLM como Ollama o con modelos basados en la nube como Claude Sonnet.
Este tutorial rápido muestra cómo desplegar OpenClaw usando Docker, configurar ya sea un modelo local con GPU o un modelo basado en la nube con solo CPU, y verificar que tu asistente de IA funcione de extremo a extremo.
Este guía recorre una configuración mínima de OpenClaw para que puedas verlo funcionando y respondiendo en tu propia máquina.
El objetivo es simple:
- Poner en marcha OpenClaw.
- Enviar una solicitud.
- Confirmar que funciona.
Este no es un guía de endurecimiento para producción. Este no es un guía de ajuste de rendimiento. Este es un punto de partida práctico.
Tienes dos opciones:
- Ruta A — GPU local usando Ollama (recomendado si tienes una GPU)
- Ruta B — Solo CPU usando Claude Sonnet 4.6 a través de la API de Anthropic
Ambas rutas comparten el mismo proceso de instalación básico.

Si eres nuevo en OpenClaw y quieres una visión más profunda de cómo está estructurado el sistema, lee el panorama del sistema OpenClaw.
Requisitos del sistema y configuración del entorno
OpenClaw es un sistema estilo asistente que puede conectarse a servicios externos. Para este Quickstart:
- Usa cuentas de prueba siempre que sea posible.
- Evita conectar sistemas de producción sensibles.
- Ejecútalo dentro de Docker (recomendado).
La aislamiento es una buena opción predeterminada al experimentar con software estilo agente.
Requisitos previos de OpenClaw (GPU con Ollama o CPU con Claude)
Requerido para ambas rutas
- Git
- Docker Desktop (o Docker + Docker Compose)
- Un terminal
Para la Ruta A (GPU local)
- Una máquina con una GPU compatible (NVIDIA o AMD recomendada)
- Ollama instalado
Para la Ruta B (CPU + modelo en la nube)
- Una clave de API de Anthropic
- Acceso a Claude Sonnet 4.6
Paso 1 — Instalar OpenClaw con Docker (Clonar y iniciar)
OpenClaw puede iniciarse usando Docker Compose. Esto mantiene la configuración contenida y reproducible.
Clonar el repositorio
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Copiar la configuración del entorno
cp .env.example .env
Abre .env en tu editor. Lo configuraremos en el siguiente paso
dependiendo de la ruta del modelo que elijas.
Iniciar los contenedores
docker compose up -d
Si todo inicia correctamente, deberías ver los contenedores en ejecución:
docker ps
En este momento, OpenClaw está en ejecución — pero aún no está conectado a un modelo.
Paso 2 — Configurar el proveedor de LLM (Ollama GPU o Claude CPU)
Ahora decide cómo quieres que funcione la inferencia.
Ruta A — GPU local con Ollama
Si tienes una GPU disponible, esta es la opción más simple y más autónoma.
Instalar o verificar Ollama
Si necesitas una guía de instalación más detallada o quieres configurar ubicaciones de almacenamiento de modelos, ve a:
- Instalar Ollama y configurar la ubicación de los modelos
- Hoja de trucos de la CLI de Ollama: ls, serve, run, ps + otros comandos (actualización de 2026)
Si Ollama no está instalado:
curl -fsSL https://ollama.com/install.sh | sh
Verifica que funcione:
ollama pull llama3
ollama run llama3
Si el modelo responde, la inferencia está funcionando.
Configurar OpenClaw para usar Ollama
En tu archivo .env, configura:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Reinicia los contenedores:
docker compose restart
OpenClaw ahora enrutarà las solicitudes a tu instancia local de Ollama.
Si estás decidiendo qué modelo ejecutar en una GPU con 16 GB de VRAM o quieres comparaciones de rendimiento, ve a:
Para entender la concurrencia y el comportamiento de la CPU bajo carga:
- Cómo maneja Ollama las solicitudes paralelas
- Prueba: Cómo utiliza Ollama el rendimiento de la CPU de Intel y los núcleos eficientes
Ruta B — Solo CPU usando Claude Sonnet 4.6
Si no tienes una GPU, puedes usar un modelo alojado.
Añade tu clave de API
En tu archivo .env:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
Reinicia:
docker compose restart
OpenClaw ahora usará Claude Sonnet 4.6 para la inferencia, mientras que la orquestación se ejecutará localmente.
Esta configuración funciona bien en máquinas con solo CPU porque el cálculo pesado del modelo ocurre en la nube.
Paso 3 — Probar OpenClaw con tu primer prompt
Una vez que los contenedores estén en ejecución y el modelo esté configurado, puedes probar el asistente.
Dependiendo de tu configuración, esto puede ser a través de:
- Una interfaz web
- Una integración de mensajería
- Un punto final de API local
Para una prueba básica de API:
curl http://localhost:3000/health
Deberías ver una respuesta de estado saludable.
Ahora envía un prompt simple:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Explica qué hace OpenClaw en términos simples."}'
Si recibes una respuesta estructurada, el sistema está funcionando.
Lo que acabas de ejecutar
En este punto, tienes:
- Una instancia de OpenClaw en ejecución
- Un proveedor de LLM configurado (local o en la nube)
- Un bucle de solicitud-respuesta funcional
Si elegiste la ruta de la GPU, la inferencia ocurre localmente a través de Ollama.
Si elegiste la ruta de la CPU, la inferencia ocurre a través de Claude Sonnet 4.6, mientras que la orquestación, enrutamiento y manejo de memoria se ejecutan dentro de tus contenedores locales de Docker.
La interacción visible puede parecer simple. Debajo, varios componentes se coordinan para procesar tu solicitud.
Solución de problemas en la instalación y ejecución de OpenClaw
El modelo no responde
- Verifica tu configuración en
.env. - Revisa los registros de los contenedores:
docker compose logs
Ollama no alcanzable
- Confirma que Ollama esté en ejecución:
ollama list
- Asegúrate de que la URL base coincida con tu entorno.
Clave de API inválida
- Revisa
ANTHROPIC_API_KEY - Reinicia los contenedores después de actualizar
.env
No se está usando la GPU
- Confirma que los controladores de GPU estén instalados.
- Asegúrate de que Docker tenga acceso habilitado a la GPU.
Pasos siguientes después de instalar OpenClaw
Ahora tienes una instancia de OpenClaw funcional.
Desde aquí, puedes:
- Conectar plataformas de mensajería
- Habilitar recuperación de documentos
- Experimentar con estrategias de enrutamiento
- Añadir observabilidad y métricas
- Ajustar el rendimiento y el comportamiento de costos
Las discusiones arquitectónicas más profundas tienen más sentido una vez que el sistema esté en ejecución.
Ponerlo en funcionamiento es el primer paso.