Inicio rápido de OpenClaw: Instalación con Docker (Ollama GPU o Claude + CPU)
Instale OpenClaw localmente con Ollama
OpenClaw es un asistente de IA autoalojado diseñado para ejecutarse con entornos de ejecución de LLM locales como Ollama o con modelos basados en la nube como Claude Sonnet.
Esta guía rápida muestra cómo desplegar OpenClaw utilizando Docker, configurar un modelo local con GPU o un modelo en la nube solo con CPU, y verificar que su asistente de IA funcione de extremo a extremo.
Esta guía le guiará a través de una configuración mínima de OpenClaw para que pueda verlo ejecutándose y respondiendo en su propia máquina.
El objetivo es sencillo:
- Hacer que OpenClaw funcione.
- Enviar una solicitud.
- Confirmar que funciona.
Esta no es una guía de endurecimiento para producción. Esta no es una guía de ajuste de rendimiento. Este es un punto de partida práctico.
Tienes dos opciones:
- Ruta A — GPU Local usando Ollama (recomendado si tienes una GPU)
- Ruta B — Solo CPU usando Claude Sonnet 4.6 a través de la API de Anthropic
Ambas rutas comparten el mismo proceso de instalación central.

Si eres nuevo en OpenClaw y deseas una visión más profunda de cómo está estructurado el sistema, lee la visión general del sistema OpenClaw.
Requisitos del sistema y configuración del entorno
OpenClaw es un sistema de estilo asistente que puede conectarse a servicios externos. Para esta guía rápida:
- Utiliza cuentas de prueba siempre que sea posible.
- Evita conectar sistemas de producción sensibles.
- Ejecútalo dentro de Docker (recomendado).
El aislamiento es un buen valor predeterminado al experimentar con software de estilo agente.
Prerrequisitos de OpenClaw (GPU con Ollama o CPU con Claude)
Requerido para ambas rutas
- Git
- Docker Desktop (o Docker + Docker Compose)
- Un terminal
Para la Ruta A (GPU Local)
- Una máquina con una GPU compatible (se recomienda NVIDIA o AMD)
- Ollama instalado
Para la Ruta B (Solo CPU + Modelo en la Nube)
- Una clave de API de Anthropic
- Acceso a Claude Sonnet 4.6
Paso 1: Instalar OpenClaw con Docker (Clonar e Iniciar)
OpenClaw se puede iniciar utilizando Docker Compose. Esto mantiene la configuración contenida y reproducible.
Clonar el repositorio
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Copiar la configuración del entorno
cp .env.example .env
Abre .env en tu editor. Lo configuraremos en el siguiente paso dependiendo de la ruta del modelo que elijas.
Iniciar los contenedores
docker compose up -d
Si todo comienza correctamente, deberías ver los contenedores ejecutándose:
docker ps
En esta etapa, OpenClaw se está ejecutando, pero aún no está conectado a un modelo.
Paso 2: Configurar el proveedor de LLM (Ollama GPU o Claude CPU)
Ahora decide cómo quieres que funcione la inferencia.
Ruta A: GPU Local con Ollama
Si tienes una GPU disponible, esta es la opción más sencilla y autónoma.
Instalar o verificar Ollama
Si necesitas una guía de instalación más detallada o quieres configurar las ubicaciones de almacenamiento de modelos, consulta:
- Instalar Ollama y Configurar la Ubicación de los Modelos
- Hoja de trucos de la CLI de Ollama: ls, serve, run, ps y otros comandos (actualización 2026)
Si Ollama no está instalado:
curl -fsSL https://ollama.com/install.sh | sh
Verifica que funcione:
ollama pull llama3
ollama run llama3
Si el modelo responde, la inferencia está funcionando.
Configurar OpenClaw para usar Ollama
En tu archivo .env, configura:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Reinicia los contenedores:
docker compose restart
Ahora OpenClaw enrutará las solicitudes a tu instancia local de Ollama.
Si estás decidiendo qué modelo ejecutar en una GPU de 16 GB de VRAM o quieres comparaciones de rendimiento, consulta:
Para entender la concurrencia y el comportamiento de la CPU bajo carga:
- Cómo Ollama maneja las solicitudes paralelas
- Prueba: Cómo Ollama utiliza el rendimiento de la CPU Intel y los núcleos eficientes
Ruta B: Solo CPU usando Claude Sonnet 4.6
Si no tienes una GPU, puedes usar un modelo alojado.
Agregar tu clave de API
En tu archivo .env:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=tu_clave_de_api_aqui
ANTHROPIC_MODEL=claude-sonnet-4-6
Reinicia:
docker compose restart
Ahora OpenClaw usará Claude Sonnet 4.6 para la inferencia mientras la orquestación se ejecuta localmente.
Esta configuración funciona bien en máquinas con solo CPU porque el cálculo pesado del modelo ocurre en la nube.
Si estás utilizando modelos de Anthropic aquí, este cambio en la política de suscripción de Claude explica por qué OpenClaw requiere facturación basada en API en lugar de reutilizar planes de Claude.
Paso 3: Probar OpenClaw con tu primera solicitud
Una vez que los contenedores estén ejecutándose y el modelo esté configurado, puedes probar el asistente.
Dependiendo de tu configuración, esto puede ser a través de:
- Una interfaz web
- Una integración de mensajería
- Un punto de conexión de API local
Para una prueba de API básica:
curl http://localhost:3000/health
Deberías ver una respuesta de estado saludable.
Ahora envía una solicitud simple:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Explica qué hace OpenClaw en términos sencillos."}'
Si recibes una respuesta estructurada, el sistema está funcionando.
Lo que acabas de ejecutar
En este punto, tienes:
- Una instancia de OpenClaw en ejecución
- Un proveedor de LLM configurado (local o en la nube)
- Un bucle de solicitud-respuesta funcional
Si elegiste la ruta de GPU, la inferencia ocurre localmente a través de Ollama.
Si elegiste la ruta de CPU, la inferencia ocurre a través de Claude Sonnet 4.6, mientras que la orquestación, el enrutamiento y la gestión de memoria se ejecutan dentro de tus contenedores Docker locales.
La interacción visible puede parecer sencilla. Por debajo, múltiples componentes coordinan para procesar tu solicitud.
Solución de problemas de instalación y ejecución de OpenClaw
El modelo no responde
- Verifica tu configuración de
.env. - Revisa los registros del contenedor:
docker compose logs
Ollama no es accesible
- Confirma que Ollama se esté ejecutando:
ollama list
- Asegúrate de que la URL base coincida con tu entorno.
Clave de API inválida
- Verifica dos veces
ANTHROPIC_API_KEY. - Reinicia los contenedores después de actualizar
.env.
La GPU no se está utilizando
- Confirma que los controladores de GPU estén instalados.
- Asegúrate de que Docker tenga habilitado el acceso a la GPU.
Próximos pasos después de instalar OpenClaw
Ahora tienes una instancia de OpenClaw funcionando.
A partir de aquí, puedes:
- Conectar plataformas de mensajería
- Habilitar la recuperación de documentos
- Experimentar con estrategias de enrutamiento
- Añadir observabilidad y métricas
- Ajustar el rendimiento y el comportamiento de costos
Las discusiones arquitectónicas más profundas tienen más sentido una vez que el sistema está en funcionamiento.
Hacer que funcione es el primer paso.
Para más estudios de caso de sistemas de IA, consulta la sección Sistemas de IA.