OpenAI

Quickstart de llama.cpp con CLI y servidor

Quickstart de llama.cpp con CLI y servidor

Cómo instalar, configurar y usar OpenCode

Sigo volviendo a llama.cpp para la inferencia local, ya que me da el control que Ollama y otros abstraen, y simplemente funciona. Fácil de ejecutar modelos GGUF de forma interactiva con llama-cli o exponer una API HTTP OpenAI-compatible con llama-server.