Openai

Snelstart van llama.cpp met CLI en server

Snelstart van llama.cpp met CLI en server

Hoe u OpenCode installeert, configureert en gebruikt

Ik keer steeds terug naar llama.cpp voor lokale inferentie: het geeft je controle die Ollama en anderen abstracteren, en het werkt gewoon. Het is eenvoudig om GGUF-modellen interactief uit te voeren met llama-cli of een OpenAI-compatibele HTTP-API bloot te stellen met llama-server.