Jämförelse av LLMs prestanda på Ollama på GPU med 16GB VRAM
LLM-hastighetstest på RTX 4080 med 16 GB VRAM
Att köra stora språkmodeller lokalt ger dig integritet, möjlighet att använda dem offline och noll kostnader för API-anrop. Detta benchmark visar exakt vad man kan förvänta sig från 9 populära LLMs på Ollama på en RTX 4080.