Snelstart voor llama.swap Model Switcher voor lokaal met OpenAI-compatibele LLM's
Lokale LLM's zonder cliënten te wijzigen verwisselen.
Binnenkort juggle je vLLM, llama.cpp en meer – elk stack op zijn eigen poort. Alles downstream wil nog steeds één /v1-basis-URL; anders blijf je poorten, profielen en eenmalige scripts shuffelen. llama-swap is de /v1-proxy voor die stacks.