Comparaison des performances des LLM sur Ollama sur un GPU avec 16 Go de VRAM
Test de vitesse du LLM sur RTX 4080 avec 16 Go de VRAM
Exécuter des modèles de langage volumineux localement vous offre la confidentialité, la capacité hors ligne et un coût API nul. Ce benchmark révèle exactement ce à quoi on peut s’attendre à partir de 9 modèles populaires LLMs sur Ollama sur un RTX 4080.