llama.swap Modelväxlar: Snabbguide för lokala LLM:ar med OpenAI-kompatibilitet
Byt lokala LLM:er med hetbytte utan att ändra klienterna.
Snart balanserar du vLLM, llama.cpp och mer – varje stack på sin egen port. Allt nedströms vill fortfarande ha en enda /v1-bas-URL; annars fortsätter du att flytta runt portar, profiler och engångsscript. llama-swap är /v1-proxyn framför dessa stackar.