Сравнение производительности LLM на Ollama на GPU с 16 ГБ VRAM

Тест скорости LLM на RTX 4080 с 16 ГБ VRAM

Содержимое страницы

Запуск больших языковых моделей локально обеспечивает конфиденциальность, возможность работы автономно и нулевые затраты на API. Это тестирование показывает, чего именно можно ожидать от 14 популярных LLM в Ollama на RTX 4080.

Имея видеокарту с 16 ГБ видеопамяти (VRAM), я постоянно сталкивался с компромиссом: большие модели с потенциально более высоким качеством или маленькие модели с более быстрым инференсом. Подробнее о производительности LLM — пропускной способности против задержки, ограничениях VRAM, параллельных запросах и тестировании различных сред выполнения — см. Производительность LLM: тестирование, узкие места и оптимизация.

В данной статье фокус сделан на Ollama. Что касается тех же GPU класса 16 ГБ, протестированных с llama.cpp при контексте 19K, 32K и 64K (VRAM, загрузка GPU, токены в секунду для плотных и MoE чекпоинтов), см. Тестирование LLM на 16 ГБ VRAM с llama.cpp (скорость и контекст).

Как только пропускная способность и распределение VRAM выглядят приемлемыми, для агентовских рабочих нагрузок все еще нужны разумные пресеты температуры и штрафов для стеков Qwen и Gemma; см. Параметры агентовского инференса для Qwen и Gemma.

Производительность LLM в Ollama - ранжирование тараканов

TL;DR

Вот обновленная таблица сравнения производительности LLM на RTX 4080 16GB с Ollama 0.17.7, (2026-03-09) добавлены модели Qwen 3.5 9b, 9bq8, 27b и 35b:

Модель Использовано RAM+VRAM Распределение CPU/GPU Токенов/сек
gpt-oss:20b 14 ГБ 100% GPU 139.93
qwen3.5:9b 9.3 ГБ 100% GPU 90.89
ministral-3:14b 13 ГБ 100% GPU 70.13
qwen3:14b 12 ГБ 100% GPU 61.85
qwen3.5:9b-q8_0 13 ГБ 100% GPU 61.22
qwen3-coder:30b 20 ГБ 25%/75% CPU/GPU 57.17
qwen3-vl:30b-a3b 22 ГБ 30%/70% CPU/GPU 50.99
glm-4.7-flash 21 ГБ 27%/73% CPU/GPU 33.86
nemotron-3-nano:30b 25 ГБ 38%/62% CPU/GPU 32.77
qwen3.5:35b 27 ГБ 43%/57% CPU/GPU 20.66
devstral-small-2:24b 19 ГБ 18%/82% CPU/GPU 18.67
mistral-small3.2:24b 19 ГБ 18%/82% CPU/GPU 18.51
gpt-oss:120b 66 ГБ 78%/22% CPU/GPU 12.64
qwen3.5:27b 24 ГБ 43%/57% CPU/GPU 6.48

Ключевой вывод: Модели, которые помещаются полностью в VRAM, работают значительно быстрее. GPT-OSS 20B достигает 139.93 токенов/сек, в то время как GPT-OSS 120B с большой разгрузкой на CPU ползет со скоростью 12.64 токенов/сек — разница в скорости составляет 11 раз.

Конфигурация тестового оборудования

Тестирование проводилось на следующей системе:

  • GPU: NVIDIA RTX 4080 с 16 ГБ VRAM
  • CPU: Intel Core i7-14700 (8 P-ядер + 12 E-ядер)
  • RAM: 64 ГБ DDR5-6000

Это представляет собой распространенную высокопроизводительную потребительскую конфигурацию для локального инференса LLM. 16 ГБ VRAM — это критическое ограничение, определяющее, какие модели работают полностью на GPU, а какие требуют разгрузки на CPU.

Понимание того, как Ollama использует ядра процессора Intel, становится важным, когда модели превышают емкость VRAM, поскольку производительность CPU напрямую влияет на скорость инференса разгруженных слоев.

Цель данного тестирования

Основная цель заключалась в измерении скорости инференса в реалистичных условиях. Я уже знал из опыта, что Mistral Small 3.2 24B превосходит в качестве языка, в то время как Qwen3 14B предлагает превосходное следование инструкциям для моих конкретных случаев использования.

Данное тестирование отвечает на практический вопрос: Как быстро каждая модель может генерировать текст и какова цена скорости при превышении лимитов VRAM?

Параметры теста были следующими:

  • Размер контекста: 19 000 токенов. Это среднее значение в моих запросах Generate.
  • Промпт: “сравните погоду и климат в столицах Австралии”
  • Метрика: скорость оценки (токенов в секунду во время генерации)

Установка и версия Ollama

Все тесты использовали Ollama версии 0.15.2, последнюю версию на момент тестирования. Позже было перезапущено на Ollama v 0.17.7 — чтобы добавить модели Qwen3.5. Для полного справочника команд Ollama, использованных в этом тестировании, см. Шпаргалку Ollama.

Для быстрого повторения — установка Ollama на Linux:

curl -fsSL https://ollama.com/install.sh | sh

Проверка установки:

ollama --version

Если вам нужно хранить модели на другом диске из-за нехватки места, посмотрите как переместить модели Ollama на другой диск.

Тестируемые модели

Следующие модели были протестированы, в алфавитном порядке:

Модель Параметры Квантование Примечания
devstral-small-2:24b 24B Q4_K_M Ориентация на код
glm-4.7-flash 30B Q4_K_M Модель для размышлений
gpt-oss:20b 20B Q4_K_M Самая быстрая в целом
gpt-oss:120b 120B Q4_K_M Самая большая из протестированных
ministral-3:14b 14B Q4_K_M Эффективная модель от Mistral
mistral-small3.2:24b 24B Q4_K_M Высокое качество языка
nemotron-3-nano:30b 30B Q4_K_M Предложение от NVIDIA
qwen3:14b 14B Q4_K_M Лучшее следование инструкциям
qwen3.5:9b 9B Q4_K_M Быстрая, полностью на GPU
qwen3.5:9b-q8_0 9B Q8_0 Более высокое качество, полностью на GPU
qwen3.5:27b 27B Q4_K_M Отличное качество, медленная в Ollama
qwen3-vl:30b-a3b 30B Q4_K_M Поддержка зрения
qwen3-coder:30b 30B Q4_K_M Ориентация на код
qwen3.5:35b 35B Q4_K_M Хорошие возможности для кода

Для загрузки любой модели:

ollama pull gpt-oss:20b
ollama pull qwen3:14b

Понимание разгрузки на CPU

Когда требования модели к памяти превышают доступную VRAM, Ollama автоматически распределяет слои модели между GPU и системной памятью. Вывод показывает это как процентное соотношение, например, “18%/82% CPU/GPU”.

Это имеет огромные последствия для производительности. Каждая генерация токена требует передачи данных между памятью CPU и GPU — это узкое место, которое усугубляется с каждым слоем, разгруженным на CPU.

Узор ясен из наших результатов:

  • Модели 100% GPU: 61-140 токенов/сек
  • Модели 70-82% GPU: 19-51 токенов/сек
  • 22% GPU (в основном CPU): 12.6 токенов/сек

Это объясняет, почему модель с 20B параметров может превзойти модель с 120B параметров в 11 раз на практике. Если вы планируете обслуживать несколько параллельных запросов, понимание того, как Ollama обрабатывает параллельные запросы, становится essential для планирования емкости.

Детальные результаты тестирования

Модели, работающие на 100% на GPU

GPT-OSS 20B — Чемпион по скорости

ollama run gpt-oss:20b --verbose
/set parameter num_ctx 19000

NAME           SIZE     PROCESSOR    CONTEXT
gpt-oss:20b    14 GB    100% GPU     19000

eval count:           2856 token(s)
eval duration:        20.410517947s
eval rate:            139.93 tokens/s

При 139.93 токенах/сек GPT-OSS 20B является явным победителем для приложений, критичных к скорости. Она использует всего 14 ГБ VRAM, оставляя запас для больших контекстных окон или других рабочих нагрузок GPU.

Qwen3 14B — Отличный баланс

ollama run qwen3:14b --verbose
/set parameter num_ctx 19000

NAME         SIZE     PROCESSOR    CONTEXT
qwen3:14b    12 GB    100% GPU     19000

eval count:           3094 token(s)
eval duration:        50.020594575s
eval rate:            61.85 tokens/s

Qwen3 14B предлагает лучшее следование инструкциям по моему опыту, с комфортным потреблением памяти в 12 ГБ. При 61.85 токенах/сек она достаточно отзывчива для интерактивного использования.

Для разработчиков, интегрирующих Qwen3 в приложения, см. Структурированный вывод LLM с Ollama и Qwen3 для извлечения структурированных JSON-ответов.

Ministral 3 14B — Быстрая и компактная

ollama run ministral-3:14b --verbose
/set parameter num_ctx 19000

NAME               SIZE     PROCESSOR    CONTEXT
ministral-3:14b    13 GB    100% GPU     19000

eval count:           1481 token(s)
eval duration:        21.11734277s
eval rate:            70.13 tokens/s

Меньшая модель от Mistral обеспечивает 70.13 токенов/сек, полностью помещаясь в VRAM. Solid выбор, когда вам нужно качество семейства Mistral при максимальной скорости.

qwen3.5:9b - быстрая и новая

ollama run  qwen3.5:9b --verbose
/set parameter num_ctx 19000
compare weather and climate between capital cities of australia

NAME          ID              SIZE      PROCESSOR    CONTEXT
qwen3.5:9b    6488c96fa5fa    9.3 GB    100% GPU     19000

eval count:           3802 token(s)
eval duration:        41.830174597s
eval rate:            90.89 tokens/s

qwen3.5:9b-q8_0 - квантование q8

Это квантование снижает производительность qwen3.5:9b на 30% по сравнению с q4.

ollama run  qwen3.5:9b-q8_0 --verbose
/set parameter num_ctx 19000

compare weather and climate between capital cities of australia
NAME               ID              SIZE     PROCESSOR    CONTEXT
qwen3.5:9b-q8_0    441ec31e4d2a    13 GB    100% GPU     19000

eval count:           3526 token(s)
eval duration:        57.595540159s
eval rate:            61.22 tokens/s

Модели, требующие разгрузки на CPU

qwen3-coder:30b - самая быстрая из набора LLM 30b, так как только текстовая

ollama run qwen3-coder:30b --verbose
/set parameter num_ctx 19000
compare weather and climate between capital cities of australia

NAME               ID              SIZE     PROCESSOR          CONTEXT
qwen3-coder:30b    06c1097efce0    20 GB    25%/75% CPU/GPU    19000
22%/605%

eval count:           559 token(s)
eval duration:        9.77768875s
eval rate:            57.17 tokens/s

Qwen3-VL 30B — Лучшая производительность при частичной разгрузке

ollama run qwen3-vl:30b-a3b-instruct --verbose
/set parameter num_ctx 19000

NAME                         SIZE     PROCESSOR          CONTEXT
qwen3-vl:30b-a3b-instruct    22 GB    30%/70% CPU/GPU    19000

eval count:           1450 token(s)
eval duration:        28.439319709s
eval rate:            50.99 tokens/s

Несмотря на то, что 30% слоев находятся на CPU, Qwen3-VL поддерживает 50.99 токенов/сек — быстрее, чем некоторые модели 100% GPU. Возможность обработки изображений добавляет универсальность для мультимодальных задач.

Mistral Small 3.2 24B — Компромисс между качеством и скоростью

ollama run mistral-small3.2:24b --verbose
/set parameter num_ctx 19000

NAME                    SIZE     PROCESSOR          CONTEXT
mistral-small3.2:24b    19 GB    18%/82% CPU/GPU    19000

eval count:           831 token(s)
eval duration:        44.899859038s
eval rate:            18.51 tokens/s

Mistral Small 3.2 предлагает превосходное качество языка, но платит высокую цену за скорость. При 18.51 токенах/сек она ощущается заметно медленнее для интерактивного чата. Стоит того для задач, где качество важнее задержки.

GLM 4.7 Flash — MoE модель для размышлений

ollama run glm-4.7-flash --verbose
/set parameter num_ctx 19000

NAME                 SIZE     PROCESSOR          CONTEXT
glm-4.7-flash        21 GB    27%/73% CPU/GPU    19000

eval count:           2446 token(s)
eval duration:        1m12.239164004s
eval rate:            33.86 tokens/s

GLM 4.7 Flash — это модель Mixture of Experts с 30B-A3B — 30B общих параметров, но только 3B активных на токен. Как “модель для размышлений”, она генерирует внутреннее обоснование перед ответами. 33.86 токенов/сек включает как токены размышления, так и токены вывода. Несмотря на разгрузку на CPU, архитектура MoE сохраняет ее reasonably быстрой.

qwen3.5:35b - Новая модель с приличной производительностью для самохостинга

ollama run qwen3.5:35b --verbose
/set parameter num_ctx 19000
compare weather and climate between capital cities of australia

NAME           ID              SIZE     PROCESSOR          CONTEXT
qwen3.5:35b    4af949f8bdf0    27 GB    43%/57% CPU/GPU    19000

eval count:           3418 token(s)
eval duration:        2m45.458926548s
eval rate:            20.66 tokens/s

GPT-OSS 120B — Тяжеловес

ollama run gpt-oss:120b --verbose
/set parameter num_ctx 19000

NAME            SIZE     PROCESSOR          CONTEXT
gpt-oss:120b    66 GB    78%/22% CPU/GPU    19000

eval count:           5008 token(s)
eval duration:        6m36.168233066s
eval rate:            12.64 tokens/s

Запуск модели 120B на 16 ГБ VRAM технически возможен, но мучителен. При 78% на CPU скорость 12.64 токенов/сек делает интерактивное использование разочаровывающим. Лучше подходит для пакетной обработки, где задержка не имеет значения.

qwen3.5:27b - Умная, но медленная в Ollama

ollama run qwen3.5:27b --verbose
/set parameter num_ctx 19000
compare weather and climate between capital cities of australia

NAME           ID              SIZE     PROCESSOR          CONTEXT
qwen3.5:27b    193ec05b1e80    24 GB    43%/57% CPU/GPU    19000

eval count:           3370 token(s)
eval duration:        8m40.087510281s
eval rate:            6.48 tokens/s

Я протестировал qwen3.5:27b и получил крайне хорошее мнение о производительности этой модели с OpenCode. Она очень способна, информирована, отлично справляется с вызовом инструментов, хотя она медленная на моей машине в Ollama. Я пробовал другие платформы для самохостинга LLM и получил гораздо более высокие скорости. Я думаю, что пришло время расстаться с Ollama. Напишу об этом немного позже.

Практические рекомендации

Для интерактивного чата

Используйте модели, которые помещаются на 100% в VRAM:

  1. GPT-OSS 20B — Максимальная скорость (139.93 т/с)
  2. Ministral 3 14B — Хорошая скорость с качеством Mistral (70.13 т/с)
  3. Qwen3 14B — Лучшее следование инструкциям (61.85 т/с)

Для лучшего опыта чата рассмотрите Открытые интерфейсы чата для локального Ollama.

Для пакетной обработки

Это снова на моем оборудовании — 14 ГБ VRAM.

Когда скорость менее критична:

  • Mistral Small 3.2 24B — Превосходное качество языка
  • Qwen3-VL 30B — Возможность обработки изображений и текста

Когда скорость совсем не критична:

  • Qwen3.5:35b - Хорошие возможности для кода
  • Qwen3.5:27b - Крайне хорошая, но медленная в Ollama. У меня был большой успех в хостинге этой модели на llama.cpp.

Для разработки и программирования

Если вы создаете приложения с Ollama:

Альтернативные варианты хостинга

Если вас беспокоят ограничения Ollama (см. Беспокойства по поводу “ущемления” Ollama), рассмотрите другие варианты в Руководстве по локальному хостингу LLM или сравните Docker Model Runner против Ollama.

Заключение

С 16 ГБ VRAM вы можете запускать capable LLM с впечатляющей скоростью — если выберете мудро. Ключевые выводы:

  1. Оставайтесь в пределах лимитов VRAM для интерактивного использования. Модель 20B при 140 токенах/сек превосходит модель 120B при 12 токенах/сек для большинства практических целей.

  2. GPT-OSS 20B побеждает по чистой скорости, но Qwen3 14B предлагает лучший баланс скорости и возможностей для задач следования инструкциям.

  3. Разгрузка на CPU работает, но ожидайте замедление в 3-10 раз. Приемлемо для пакетной обработки, разочаровывающе для чата.

  4. Размер контекста имеет значение. Контекст 19K, использованный здесь, значительно увеличивает использование VRAM. Уменьшите контекст для лучшей утилизации GPU.

Для поиска с ИИ, сочетающего локальные LLM с результатами из веба, см. самохостинг Perplexica с Ollama.

Чтобы изучить больше тестирований, компромиссы между VRAM и пропускной способностью, а также настройку производительности в Ollama и других средах выполнения, проверьте наш хаб Производительность LLM: тестирование, узкие места и оптимизация.

Полезные ссылки

Внутренние ресурсы

Внешние ссылки

Подписаться

Получайте новые материалы про системы, инфраструктуру и AI engineering.