Self-Hosting

Тест: Как Ollama использует производительность процессора Intel и эффективные ядра

Тест: Как Ollama использует производительность процессора Intel и эффективные ядра

Ollama на процессоре Intel: эффективные ядра против производительных ядер

У меня есть теория для проверки - если использовать все ядра процессора Intel для повышения скорости LLM Меня беспокоит, что новый модель gemma3 27 бит (gemma3:27b, 17 ГБ на ollama) не помещается в 16 ГБ видеопамяти моего GPU, и частично работает на CPU.

Сравнение пригодности GPU NVidia для ИИ

Сравнение пригодности GPU NVidia для ИИ

Искусственный интеллект требует много мощности...

В условиях хаоса современного мира здесь я сравниваю технические характеристики различных карт, подходящих для задач AI (Deep Learning, Обнаружение объектов и LLMs). Однако они все невероятно дорогие.

Топ тем Hugo

Топ тем Hugo

Наиболее популярные темы для Hugo

Давайте посмотрим на github список лучших тем для Hugo статического генератора сайтов,
и проверим их рейтинг звёзд.
Вы можете перейти к официальному списку тем Hugo: https://themes.gohugo.io/

Тестирование Deepseek-R1 на Ollama

Тестирование Deepseek-R1 на Ollama

Сравнение двух моделей deepseek-r1 с двумя базовыми

DeepSeek’s первая генерация моделей рассуждений с производительностью, сопоставимой с OpenAI-o1, включая шесть плотных моделей, дистиллированных из DeepSeek-R1 на основе Llama и Qwen.