AI

Переранжирование текстов с помощью Ollama и модели встраивания Qwen3 LLM на языке Go

Переранжирование текстов с помощью Ollama и модели встраивания Qwen3 LLM на языке Go

Внедряете RAG? Вот несколько сниппетов на Golang..

Этот небольшой пример кода на Go для пересортировки вызывает Ollama для генерации эмбеддингов для запроса и для каждого кандидата-документа, затем сортирует их по убыванию косинусного сходства.

Конвертируйте содержимое HTML в Markdown с использованием LLM и Ollama

Конвертируйте содержимое HTML в Markdown с использованием LLM и Ollama

LLM для извлечения текста из HTML...

В библиотеке моделей Ollama есть модели, способные конвертировать HTML-контент в Markdown, что полезно для задач преобразования контента. Это руководство является частью нашего Инструменты документации в 2026: Markdown, LaTeX, PDF и рабочие процессы печати хаба.

Поиск против Глубокого поиска против Глубокого исследования в 2026 году

Поиск против Глубокого поиска против Глубокого исследования в 2026 году

Какой режим исследования ИИ подходит для вашей задачи?

  • Поиск лучше всего подходит для быстрого получения простой информации с использованием ключевых слов.
  • Глубокий поиск превосходит в понимании контекста и намерений, предоставляя более релевантные и полные результаты для сложных запросов.
Тест: Как Ollama использует производительность процессоров Intel и эффективные ядра

Тест: Как Ollama использует производительность процессоров Intel и эффективные ядра

Ollama на процессорах Intel: эффективность против производительных ядер

У меня есть теория, которую нужно проверить - использование всех ядер Intel CPU повысит скорость работы LLMs? (Тест: Как Ollama использует производительность и эффективные ядра Intel CPU)

Меня беспокоит, что новая модель gemma3 27 бит (gemma3:27b, 17ГБ в ollama) не помещается в 16ГБ видеопамяти моей GPU и частично работает на CPU.

Сравнение подходящих GPU NVIDIA для ИИ

Сравнение подходящих GPU NVIDIA для ИИ

Искусственный интеллект требует большого количества энергии...

В разгар современных потрясений я сравниваю технические характеристики различных видеокарт, подходящих для задач ИИ (Deep Learning, Обнаружение объектов и LLMs). Однако все они невероятно дороги.

Как Ollama обрабатывает параллельные запросы

Как Ollama обрабатывает параллельные запросы

Настройка ollama для параллельного выполнения запросов.

Когда сервер Ollama получает два запроса одновременно, его поведение зависит от конфигурации и доступных системных ресурсов.

Что такое Vibe Coding? Смысл, инструменты, преимущества и риски в 2026 году

Что такое Vibe Coding? Смысл, инструменты, преимущества и риски в 2026 году

Кодирование с помощью ИИ: опишите, а не пишите.

Vibe coding — это подход к программированию на базе ИИ, при котором разработчики описывают желаемый функционал на естественном языке, позволяя инструментам ИИ автоматически генерировать код — с минимальным прямым написанием.

Тестирование Deepseek-R1 на Ollama

Тестирование Deepseek-R1 на Ollama

Сравнение двух моделей deepseek-r1 с двумя базовыми

DeepSeek’s первая генерация моделей рассуждений с производительностью, сопоставимой с OpenAI-o1, включает шесть плотных моделей, дистиллированных на основе Llama и Qwen.

Шпаргалка по CLI Ollama: команды ls, serve, run, ps и другие (обновление 2026 года)

Шпаргалка по CLI Ollama: команды ls, serve, run, ps и другие (обновление 2026 года)

Обновлённый список команд Ollama — ls, ps, run, serve и др.

Этот шпаргалка по CLI Ollama фокусируется на командах, которые вы используете каждый день (ollama ls, ollama serve, ollama run, ollama ps, управление моделями и типичные рабочие процессы), с примерами, которые можно скопировать и вставить.