Ollama

Сравнение качества перевода страниц Hugo - модели больших языков на Ollama

Сравнение качества перевода страниц Hugo - модели больших языков на Ollama

qwen3 8b, 14b и 30b, devstral 24b, mistral small 24b

В этом тесте я сравниваю, как разные LLM, размещённые на Ollama, переводят Hugo-страницу с английского на немецкий.
Три страницы, которые я протестировал, были на разных темах, имели хорошее markdown-форматирование с определённой структурой: заголовки, списки, таблицы, ссылки и т.д.

Переранжирование текстовых документов с помощью Ollama и модели Qwen3 Embedding - в Go

Переранжирование текстовых документов с помощью Ollama и модели Qwen3 Embedding - в Go

Реализация RAG? Вот несколько фрагментов кода на языке Golang.

Этот маленький
Пример кода на Go для переоценки вызывает Ollama для генерации вложений
для запроса и для каждого кандидата документа,
затем сортируя по убыванию косинусной схожести.

Модели эмбеддингов и переранжирования Qwen3 на Ollama: передовые достижения

Модели эмбеддингов и переранжирования Qwen3 на Ollama: передовые достижения

Новые потрясающие ЛЛМ доступны в Ollama

Модели Qwen3 Embedding и Reranker являются последними выпусками в семействе Qwen, специально разработанными для продвинутых задач встраивания, извлечения и повторного ранжирования текста.

Тест: Как Ollama использует производительность процессора Intel и эффективные ядра

Тест: Как Ollama использует производительность процессора Intel и эффективные ядра

Ollama на процессоре Intel: эффективные ядра против производительных ядер

У меня есть теория для проверки - если использовать все ядра процессора Intel для повышения скорости LLM Меня беспокоит, что новый модель gemma3 27 бит (gemma3:27b, 17 ГБ на ollama) не помещается в 16 ГБ видеопамяти моего GPU, и частично работает на CPU.

Тестирование Deepseek-R1 на Ollama

Тестирование Deepseek-R1 на Ollama

Сравнение двух моделей deepseek-r1 с двумя базовыми моделями

DeepSeek первое поколение моделей рассуждения с сопоставимой производительностью с OpenAI-o1, включая шесть плотных моделей, дистиллированных из DeepSeek-R1 на основе Llama и Qwen.

Farfalle против Perplexica

Farfalle против Perplexica

Сравнение двух самохостинговых поисковых систем на основе ИИ

Великолепная еда — это удовольствие для глаз тоже.
Но в этом посте мы сравним две AI-системы поиска, Farfalle и Perplexica.

Самохостинг Perplexica — с использованием Ollama

Самохостинг Perplexica — с использованием Ollama

Выполняете сервис в стиле Copilot локально? Просто!

Это очень вдохновляет!
Вместо того чтобы вызывать copilot или perplexity.ai и рассказывать всему миру, что вы ищете,
теперь вы можете развернуть подобную службу на своем собственном ПК или ноутбуке!