AI

Ollama en Docker Compose con GPU y almacenamiento persistente de modelos

Ollama en Docker Compose con GPU y almacenamiento persistente de modelos

Servidor Ollama con prioridad en composición, GPU y persistencia.

Ollama funciona muy bien en hardware físico (bare metal). Se vuelve aún más interesante cuando lo tratas como un servicio: un punto de conexión estable, versiones fijas, almacenamiento persistente y una GPU que está disponible o no lo está.

Mejores LLMs para OpenCode - Pruebas Locales

Mejores LLMs para OpenCode - Pruebas Locales

Prueba de LLM OpenCode: estadísticas de codificación y precisión

He probado cómo funciona OpenCode con varios modelos LLM alojados localmente en Ollama, y para comparar, he añadido algunos modelos gratuitos de OpenCode Zen.

LocalAI QuickStart: Ejecute LLM compatibles con OpenAI localmente

LocalAI QuickStart: Ejecute LLM compatibles con OpenAI localmente

Ejecuta APIs compatibles con OpenAI de forma autohospedada con LocalAI en minutos.

LocalAI es un servidor de inferencia autohospedado y local-first diseñado para comportarse como una API de OpenAI de reemplazo directo para ejecutar cargas de trabajo de IA en tu propio hardware (portátil, estación de trabajo o servidor local).

Quickstart de llama.cpp con CLI y servidor

Quickstart de llama.cpp con CLI y servidor

Cómo instalar, configurar y usar OpenCode

Sigo volviendo a llama.cpp para la inferencia local, ya que me da el control que Ollama y otros abstraen, y simplemente funciona. Fácil de ejecutar modelos GGUF de forma interactiva con llama-cli o exponer una API HTTP OpenAI-compatible con llama-server.

Airtable para Desarrolladores y DevOps - Planes, API, Webhooks y Ejemplos en Go/Python

Airtable para Desarrolladores y DevOps - Planes, API, Webhooks y Ejemplos en Go/Python

Airtable - Límites del plan gratuito, API, webhooks, Go & Python.

Airtable se considera mejor como una plataforma de aplicación de bajo código construida alrededor de una interfaz de usuario “similar a una base de datos” colaborativa - excelente para crear rápidamente herramientas operativas (seguimiento interno, CRM ligero, pipelines de contenido, colas de evaluación de IA) donde los no desarrolladores necesitan una interfaz amigable, pero los desarrolladores también necesitan una superficie de API para la automatización e integración.