AI

Оллама Эншитификация: ранние признаки

Оллама Эншитификация: ранние признаки

Моё мнение о текущем состоянии разработки Ollama

Ollama быстро стал одним из самых популярных инструментов для запуска локальных моделей большого языка (LLM). Его простой интерфейс командной строки и упрощенное управление моделями сделали его предпочтительным вариантом для разработчиков, которые хотят работать с моделями ИИ вне облака.

Интерфейсы чатов для локальных экземпляров Ollama

Интерфейсы чатов для локальных экземпляров Ollama

Краткий обзор наиболее заметных интерфейсов для Ollama в 2025 году

Локально размещённый Ollama позволяет запускать большие языковые модели на вашем собственном устройстве, но использование его через командную строку не очень удобно. Вот несколько открытых проектов, которые предоставляют интерфейсы в стиле ChatGPT, подключающиеся к локальному Ollama.

Популярность языков программирования и инструментов разработчика программного обеспечения

Популярность языков программирования и инструментов разработчика программного обеспечения

Сравнение инструментов и языков программирования

Недавно в письме Pragmatic Engineer были опубликованы статистические данные опроса о популярности языков программирования, IDE, инструментов ИИ и других данных на середину 2025 года.

NVIDIA DGX Spark — новый компактный суперкомпьютер для искусственного интеллекта

NVIDIA DGX Spark — новый компактный суперкомпьютер для искусственного интеллекта

В июле 2025 года, скоро это должно стать доступно.

Nvidia вот-вот выпустит NVIDIA DGX Spark — компактный ИИ-суперкомпьютер на архитектуре Blackwell с более чем 128 ГБ объединенной памяти и производительностью 1 ПФЛОПС для задач искусственного интеллекта. Отличное устройство для запуска больших языковых моделей (LLM).

Переранжирование документов с помощью Ollama и модели Qwen3 Reranker на языке Go

Переранжирование документов с помощью Ollama и модели Qwen3 Reranker на языке Go

Внедряете RAG? Вот несколько фрагментов кода на Go — часть 2...

Поскольку стандартный Ollama не имеет прямого API для пересчета рангов (rerank), вам потребуется реализовать пересчет рангов с использованием Qwen3 Reranker на GO путем генерации эмбеддингов для пар «запрос-документ» и их оценки.

Обнаружение объектов с TensorFlow

Обнаружение объектов с TensorFlow

Довольно давно я обучал ИИ для обнаружения объектов

Однажды холодным июльским зимним днем в Австралии… я почувствовал срочную необходимость обучить модель ИИ для обнаружения не заглушенных арматурных стержней из бетона…

Переранжирование текстов с помощью Ollama и модели встраивания Qwen3 LLM на языке Go

Переранжирование текстов с помощью Ollama и модели встраивания Qwen3 LLM на языке Go

Внедряете RAG? Вот несколько сниппетов на Golang..

Этот небольшой пример кода на Go для пересортировки вызывает Ollama для генерации эмбеддингов для запроса и для каждого кандидата-документа, затем сортирует их по убыванию косинусного сходства.

Конвертируйте содержимое HTML в Markdown с использованием LLM и Ollama

Конвертируйте содержимое HTML в Markdown с использованием LLM и Ollama

LLM для извлечения текста из HTML...

В библиотеке моделей Ollama есть модели, способные конвертировать HTML-контент в Markdown, что полезно для задач преобразования контента. Это руководство является частью нашего Инструменты документации в 2026: Markdown, LaTeX, PDF и рабочие процессы печати хаба.

Поиск vs Deepsearch vs Deep Research

Поиск vs Deepsearch vs Deep Research

Насколько они различаются?

  • Поиск лучше всего подходит для быстрого и прямого получения информации с использованием ключевых слов.
  • Глубокий поиск превосходит в понимании контекста и намерений, предоставляя более релевантные и комплексные результаты для сложных запросов.
Тест: Как Ollama использует производительность процессоров Intel и эффективные ядра

Тест: Как Ollama использует производительность процессоров Intel и эффективные ядра

Ollama на процессорах Intel: эффективность против производительных ядер

У меня есть теория, которую нужно проверить - использование всех ядер Intel CPU повысит скорость работы LLMs? (Тест: Как Ollama использует производительность и эффективные ядра Intel CPU)

Меня беспокоит, что новая модель gemma3 27 бит (gemma3:27b, 17ГБ в ollama) не помещается в 16ГБ видеопамяти моей GPU и частично работает на CPU.

Сравнение подходящих GPU NVIDIA для ИИ

Сравнение подходящих GPU NVIDIA для ИИ

Искусственный интеллект требует большого количества энергии...

В разгар современных потрясений я сравниваю технические характеристики различных видеокарт, подходящих для задач ИИ (Deep Learning, Обнаружение объектов и LLMs). Однако все они невероятно дороги.

Как Ollama обрабатывает параллельные запросы

Как Ollama обрабатывает параллельные запросы

Настройка ollama для параллельного выполнения запросов.

Когда сервер Ollama получает два запроса одновременно, его поведение зависит от конфигурации и доступных системных ресурсов.