RAG

Получение данных против репрезентации в системах знаний

Получение данных против репрезентации в системах знаний

Поиск — это не структура знаний

Большинство современных систем знаний оптимизируют процесс поиска, и это вполне понятно. Поиск нагляден, его легко продемонстрировать, и он кажется магией, когда работает. Введи вопрос — получи ответ.

LLM Wiki: систематизированные знания, которые невозможно заменить с помощью RAG

LLM Wiki: систематизированные знания, которые невозможно заменить с помощью RAG

Скомпилированные знания для ИИ-систем

Основная идея проста: скомпилированные знания более пригодны для повторного использования, чем извлеченные фрагменты. RAG стал стандартным ответом на простой вопрос — как предоставить LLM доступ к внешним знаниям?

PKM, RAG, Wiki и системы памяти: четкое разъяснение

PKM, RAG, Wiki и системы памяти: четкое разъяснение

«Карта современных систем знаний»

PKM, RAG, вики и системы памяти ИИ часто обсуждаются так, будто они решают одну и ту же задачу. Это не так. Все они имеют дело со знаниями, но работают на разных уровнях:

Второй мозг: объяснение для инженеров и работников интеллектуального труда

Второй мозг: объяснение для инженеров и работников интеллектуального труда

Заметки — это хранилище. Второй мозг — это вычисления.

Информационная перегрузка связана не столько с огромным объемом данных, сколько с нерешенными входящими потоками информации. Современная интеллектуальная работа оставляет за собой след из открытых вкладок, цепочек сообщений в чатах, документов, выделенных фрагментов, заметок, транскриптов, скриншотов и недописанных черновиков.

Валидация структурированного вывода LLM на Python, которая работает надёжно

Валидация структурированного вывода LLM на Python, которая работает надёжно

Перестаньте полагаться на интуицию. Валидируйте контракты.

Большинство руководств по «структурированному выводу» (structured output) для больших языковых моделей (LLM) не обладают должной серьезностью. Они учат вас вежливо просить модель выдавать JSON и затем надеяться, что она поступит правильно. Это не валидация. Это оптимизм, обернутый в фигурные скобки.

Векторные представления текста для RAG и поиска — Python, Ollama, совместимые с API OpenAI

Векторные представления текста для RAG и поиска — Python, Ollama, совместимые с API OpenAI

Встраивания для RAG — Python, Ollama, API OpenAI.

Если вы работаете с генерацией с расширением поиска (RAG), этот раздел объясняет векторные представления текста (эмбеддинги) простым языком: что это такое, как они работают в поиске и извлечении данных, и как вызывать два распространенных локальных режима из Python с помощью Ollama или OpenAI-совместимого HTTP API (так как многие серверы на базе llama.cpp поддерживают такой интерфейс).

Графовая база данных Neo4j для GraphRAG: установка, Cypher, векторы, операции.

Графовая база данных Neo4j для GraphRAG: установка, Cypher, векторы, операции.

Графы, Cypher, векторы и усиление операций.

Neo4j — это то, что вы выбираете, когда связи и есть данные. Если ваша предметная область выглядит как доска с кружками и стрелками, то попытка запихнуть её в таблицы будет болезненной.

Начало работы с OpenClaw: установка с помощью Docker (Ollama GPU или Claude + CPU)

Начало работы с OpenClaw: установка с помощью Docker (Ollama GPU или Claude + CPU)

Установите OpenClaw локально с помощью Ollama

OpenClaw — это AI-ассистент для самостоятельного размещения (self-hosted), предназначенный для работы с локальными средами выполнения LLM, такими как Ollama, или с облачными моделями, такими как Claude Sonnet.

Стратегии разбиения на части в сравнении RAG: альтернативы, компромиссы и примеры

Стратегии разбиения на части в сравнении RAG: альтернативы, компромиссы и примеры

Сравнение стратегий чанкирования в RAG

Чанкинг — это наиболее недооцененный гиперпараметр в Retrieval-Augmented Generation (RAG): он определяет, что видит ваша LLM, насколько дорогостоящим становится индексирование, и сколько контекстного окна LLM тратится на каждый ответ.

Руководство по RAG (Retrieval-Augmented Generation): архитектура, реализация и развертывание в продакшене

Руководство по RAG (Retrieval-Augmented Generation): архитектура, реализация и развертывание в продакшене

От базового RAG до продакшена: чанкинг, векторный поиск, реранкинг и оценка — всё в одном руководстве.

Production-focused guide to building RAG systems: chunking, vector stores, hybrid retrieval, reranking, evaluation, and when to choose RAG over fine-tuning.
Самостоятельное размещение LLM и суверенитет ИИ

Самостоятельное размещение LLM и суверенитет ИИ

Управляйте данными и моделями с помощью развернутых локально LLM

Хостинг больших языковых моделей (LLM) на собственных серверах обеспечивает контроль над данными, моделями и процессом инференса — это практический путь к суверенному искусственному интеллекту для команд, предприятий и целых стран.

Топ-19 актуальных проектов на Go в GitHub — январь 2026 года

Топ-19 актуальных проектов на Go в GitHub — январь 2026 года

Трендовые Go-репозитории января 2026

Экосистема Go продолжает процветать с инновационными проектами, охватывающими инструменты ИИ, самоуправляемые приложения и инфраструктуру разработчиков. Этот обзор анализирует самые популярные репозитории Go на GitHub в этом месяце.