RAG

Выбор правильного LLM для Cognee: локальная установка Ollama

Выбор правильного LLM для Cognee: локальная установка Ollama

Размышления об использовании больших языковых моделей для саморазмещаемого Cognee

Выбор лучшей LLM для Cognee требует баланса между качеством построения графов, уровнями галлюцинаций и ограничениями оборудования. Cognee лучше всего работает с крупными моделями с низким уровнем галлюцинаций (32B+) через Ollama, но средние варианты подходят для более легких настроек.

API веб-поиска Ollama в Python

API веб-поиска Ollama в Python

AI-поисковые агенты с помощью Python и Ollama

Библиотека Python для Ollama теперь включает в себя нативные возможности поиска в интернете с Ollama. С несколькими строками кода вы можете дополнить свои локальные LLMs актуальной информацией из интернета, снижая вероятность галлюцинаций и повышая точность.

Сравнение векторных хранилищ для RAG

Сравнение векторных хранилищ для RAG

Выберите правильную векторную базу данных для вашего стека RAG

Выбор правильного векторного хранилища может стать решающим фактором для производительности, стоимости и масштабируемости вашего приложения RAG. Это комплексное сравнение охватывает самые популярные варианты на 2024–2025 годы.

API веб-поиска Ollama в Go

API веб-поиска Ollama в Go

AI-поисковые агенты с использованием Go и Ollama

Ollama’s Web Search API позволяет дополнять локальные LLMs актуальной информацией из интернета. Это руководство показывает, как реализовать возможности веб-поиска на Go, от простых API-запросов до полнофункциональных поисковых агентов.

Ollama против vLLM против LM Studio: лучший способ запуска локальных LLM в 2026 году?

Ollama против vLLM против LM Studio: лучший способ запуска локальных LLM в 2026 году?

Сравните лучшие инструменты для локального размещения LLM в 2026 году: зрелость API, поддержка оборудования, вызов инструментов и практические кейсы.

Локальное выполнение больших языковых моделей (LLM) сейчас является практичным решением для разработчиков, стартапов и даже корпоративных команд.
Однако выбор правильного инструмента — Ollama, vLLM, LM Studio, LocalAI или других — зависит от ваших целей:

Инфраструктура искусственного интеллекта на потребительском оборудовании

Инфраструктура искусственного интеллекта на потребительском оборудовании

Развертывание корпоративного ИИ на бюджетном оборудовании с использованием открытых моделей.

Демократизация искусственного интеллекта уже здесь. С появлением открытых LLM, таких как Llama, Mistral и Qwen, которые теперь не уступают проприетарным моделям, команды могут создавать мощную инфраструктуру ИИ на потребительском оборудовании — значительно сокращая расходы при сохранении полного контроля над конфиденциальностью данных и развертыванием.

Преобразование HTML в Markdown с помощью Python: Полное руководство

Преобразование HTML в Markdown с помощью Python: Полное руководство

Python для преобразования HTML в чистый, готовый к использованию с LLM Markdown

Конвертация HTML в Markdown является фундаментальной задачей в современных рабочих процессах разработки, особенно при подготовке веб-контента для крупных языковых моделей (LLM), систем документации или статических генераторов сайтов, таких как Hugo. Это руководство является частью нашего Инструментов документации в 2026 году: Markdown, LaTeX, PDF и рабочие процессы печати хаба.

Сравнение: Qwen3:30b и GPT-OSS:20b

Сравнение: Qwen3:30b и GPT-OSS:20b

Сравнение скорости, параметров и производительности этих двух моделей

Ниже приведено сравнение Qwen3:30b и GPT-OSS:20b с акцентом на следовании инструкциям и параметрах производительности, спецификациях и скорости.

Сравнение структурированного вывода у популярных провайдеров LLM: OpenAI, Gemini, Anthropic, Mistral и AWS Bedrock

Сравнение структурированного вывода у популярных провайдеров LLM: OpenAI, Gemini, Anthropic, Mistral и AWS Bedrock

Для работы с несколько отличающимися API требуется особый подход.

Вот сравнительная таблица поддержки структурированного вывода (получение надежного JSON) у популярных провайдеров LLM, а также минимальные примеры на Python

Ограничение LLM с помощью структурированного вывода: Ollama, Qwen3 и Python или Go

Ограничение LLM с помощью структурированного вывода: Ollama, Qwen3 и Python или Go

Несколько способов получения структурированного вывода из Ollama

Большие языковые модели (LLM) являются мощным инструментом, однако в производственных условиях мы редко хотим получать свободные текстовые абзацы. Вместо этого нам нужны предсказуемые данные: атрибуты, факты или структурированные объекты, которые можно использовать в приложении. Это и есть Структурированный вывод LLM.

Переранжирование документов с помощью Ollama и модели Qwen3 Reranker на языке Go

Переранжирование документов с помощью Ollama и модели Qwen3 Reranker на языке Go

Внедряете RAG? Вот несколько фрагментов кода на Go — часть 2...

Поскольку стандартный Ollama не имеет прямого API для пересчета рангов (rerank), вам потребуется реализовать пересчет рангов с использованием Qwen3 Reranker на GO путем генерации эмбеддингов для пар «запрос-документ» и их оценки.

Переранжирование текстов с помощью Ollama и модели встраивания Qwen3 LLM на языке Go

Переранжирование текстов с помощью Ollama и модели встраивания Qwen3 LLM на языке Go

Внедряете RAG? Вот несколько сниппетов на Golang..

Этот небольшой пример кода на Go для пересортировки вызывает Ollama для генерации эмбеддингов для запроса и для каждого кандидата-документа, затем сортирует их по убыванию косинусного сходства.