Szybki start: Przełącznik modeli llama.swap dla lokalnych modeli LLM zgodnych z OpenAI
Gorąca wymiana lokalnych modeli LLM bez konieczności zmiany klientów.
Wkrótce będziesz jugglingować vLLM, llama.cpp i innymi – każdy stos na własnym porcie. Wszystko w dalszym ciągu oczekuje jednej bazowej URL /v1; inaczej ciągle będziesz przesuwać porty, profile i skrypty jednorazowe. llama-swap to proxy /v1 przed tymi stosami.