AI

Plugins de OpenClaw: Guía del Ecosistema y Opciones Prácticas

Plugins de OpenClaw: Guía del Ecosistema y Opciones Prácticas

Primero los complementos. Breve denominación de las habilidades.

Este artículo trata sobre los plugins de OpenClaw: paquetes de puerta de enlace nativa que añaden canales, proveedores de modelos, herramientas, voz, memoria, medios, búsqueda web y otras superficies de tiempo de ejecución.

Inicio rápido de Vane (Perplexica 2.0) con Ollama y llama.cpp

Inicio rápido de Vane (Perplexica 2.0) con Ollama y llama.cpp

Búsqueda de IA autoalojada con LLM locales

Vane es una de las entradas más pragmáticas en el espacio de “búsqueda de IA con citas”: un motor de respuestas autoalojado que combina la recuperación web en vivo con LLM locales o en la nube, manteniendo toda la pila bajo tu control.

Ollama en Docker Compose con GPU y almacenamiento persistente de modelos

Ollama en Docker Compose con GPU y almacenamiento persistente de modelos

Servidor Ollama con prioridad en composición, GPU y persistencia.

Ollama funciona muy bien en hardware físico (bare metal). Se vuelve aún más interesante cuando lo tratas como un servicio: un punto de conexión estable, versiones fijas, almacenamiento persistente y una GPU que está disponible o no lo está.