Сравнение провайдеров памяти для агентов — Honcho, Mem0, Hindsight и ещё пять

Восемь подключаемых бэкендов для постоянного хранения памяти агента.

Содержимое страницы

Современные ассистенты по-прежнему забывают всю информацию при закрытии вкладки, если данные не сохраняются вне окна контекста. Поставщики памяти агентов — это сервисы или библиотеки, которые хранят факты и резюме между сессиями, часто интегрируясь как плагины, чтобы каркас оставался легким, в то время как память масштабируется.

Данное руководство сравнивает восемь бэкендов, поставляемых в качестве внешних плагинов памяти для Hermes Agent — Honcho, OpenViking, Mem0, Hindsight, Holographic, RetainDB, ByteRover и Supermemory — и объясняет, как они вписываются в более широкие стеки AI-систем. Те же поставщики представлены в OpenClaw и других инструментах для агентов через интеграции сообщества или официальные подключения. В Центре памяти AI-систем эта статья указана наряду с Cognee и связанными руководствами.

Для специфичной для Hermes ограниченной основной памяти (MEMORY.md и USER.md), поведения заморозки и триггеров см. Систему памяти агента Hermes.


Hermes Agent предлагает восемь внешних плагинов поставщиков памяти для постоянного хранения знаний между сессиями. Одновременно может быть активен только один внешний поставщик. Встроенные файлы MEMORY.md и USER.md остаются загруженными наряду с ним — они дополняют, а не заменяют.

Внешние зависимости. Каждый внешний поставщик, кроме Holographic, требует хотя бы одного вызова внешней службы — LLM для извлечения памяти, модель эмбеддингов для семантического поиска или базу данных, такую как PostgreSQL, для хранения. Эти зависимости напрямую влияют на конфиденциальность, стоимость и возможность полностью самохостинга вашего стека памяти. Hindsight и ByteRover объединяют или устраняют большинство зависимостей; Honcho, Mem0 и Supermemory требуют наибольшего числа компонентов. Если поставщик поддерживает Ollama или любой endpoint, совместимый с OpenAI, вы можете направлять вызовы LLM и эмбеддингов к локальной модели и полностью сохранять данные вне сторонних серверов.

Активация с Hermes Agent

hermes memory setup   # Интерактивный выборщик + конфигурация
hermes memory status  # Проверка активного статуса
hermes memory off     # Отключение внешнего поставщика

Или вручную в ~/.hermes/config.yaml:

memory:
  provider: openviking  # или honcho, mem0, hindsight, holographic, retaindb, byterover, supermemory

Сравнение поставщиков

Поставщик Хранение Стоимость Внешние зависимости Возможность самохостинга Уникальная особенность
Honcho Облако/Самохостинг Платно/Бесплатно LLM + Модель эмбеддингов + PostgreSQL/pgvector + Redis Да — Docker / K3s / Fly.io Диалектическое моделирование пользователя + контекст сессии
OpenViking Самохостинг Бесплатно LLM (VLM) + Модель эмбеддингов Да — локальный сервер; нативный мастер настройки Ollama Иерархия файловой системы + послойная загрузка
Mem0 Облако/Самохостинг Платно/Бесплатно (OSS) LLM + Модель эмбеддингов + Хранилище векторов (Qdrant или pgvector) Да — Docker Compose OSS; возможна полностью локальная работа Серверное извлечение LLM
Hindsight Облако/Локально Бесплатно/Платно LLM + встроенная PostgreSQL + встроенный эмбеддер + встроенный ранжировщик Да — Docker или встроенный Python; полностью локально с Ollama Граф знаний + синтез reflect
Holographic Локально Бесплатно Нет Нативно — инфраструктура не требуется Алгебра HRR + оценка доверия
RetainDB Облако $20/мес Управляемое облако (LLM + извлечение на серверах RetainDB) Нет Дельта-сжатие
ByteRover Локально/Облако Бесплатно/Платно Только LLM — без модели эмбеддингов, без БД Да — локально по умолчанию; поддерживается Ollama Контекстное дерево на основе файлов; без конвейера эмбеддингов
Supermemory Облако Платно LLM + PostgreSQL/pgvector (корпоративное развертывание на Cloudflare) Только корпоративный план Контекстный забор + импорт графа сессий

Подробный разбор

Honcho

Лучше всего подходит для: мультиагентных систем, контекста между сессиями, согласования пользователь-агент.

Honcho работает наряду с существующей памятью — USER.md остается без изменений, а Honcho добавляет дополнительный слой контекста. Он моделирует разговоры как обмен сообщениями между равноправными сторонами — один пользовательский peer и один AI peer на каждый профиль Hermes, все совместно использующие рабочее пространство.

Внешние зависимости: Honcho требует LLM для суммаризации сессии, вывода представления пользователя и диалектического рассуждения; модель эмбеддингов для семантического поиска по наблюдениям; PostgreSQL с расширением pgvector для хранения векторов; и Redis для кэширования. Управляемое облако на api.honcho.dev берет все это на себя. Для самостоятельного развертывания (Docker, K3s или Fly.io) вы предоставляете свои собственные учетные данные. Слот LLM принимает любой endpoint, совместимый с OpenAI, включая Ollama и vLLM, поэтому вывод может оставаться внутри периметра. Слот эмбеддингов по умолчанию использует openai/text-embedding-3-small, но поддерживает настраиваемых поставщиков через LLM_EMBEDDING_API_KEY и LLM_EMBEDDING_BASE_URL — любой сервер эмбеддингов, совместимый с OpenAI, работает, включая локальные варианты, такие как vLLM с моделью BGE.

Инструменты: honcho_profile (чтение/обновление карты peer), honcho_search (семантический поиск), honcho_context (контекст сессии — резюме, представление, карта, сообщения), honcho_reasoning (синтезированное LLM), honcho_conclude (создание/удаление выводов).

Ключевые параметры конфигурации:

  • contextCadence (по умолчанию 1): Минимальное количество ходов между обновлениями базового слоя
  • dialecticCadence (по умолчанию 2): Минимальное количество ходов между вызовами LLM peer.chat() (рекомендуется 1-5)
  • dialecticDepth (по умолчанию 1): Проходы .chat() на вызов (ограничено 1-3)
  • recallMode (по умолчанию ‘hybrid’): hybrid (авто+инструменты), context (только инъекция), tools (только инструменты)
  • writeFrequency (по умолчанию ‘async’): Время сброса: async, turn, session или целое число N
  • observationMode (по умолчанию ‘directional’): directional (все включены) или unified (общий пул)

Архитектура: Двухслойная инъекция контекста — базовый слой (резюме сессии + представление + карта peer) + диалектическое дополнение (рассуждения LLM). Автоматически выбирает холодный старт или теплые промпты.

Маппинг множества peer: Рабочее пространство — это общая среда между профилями. Пользовательский peer (peerName) — глобальная человеческая личность. AI peer (aiPeer) — один на каждый профиль Hermes (hermes по умолчанию, hermes.<profile> для других).

Настройка:

hermes memory setup  # выбрать "honcho"
# или устаревший: hermes honcho setup

Конфиг: $HERMES_HOME/honcho.json (локально для профиля) или ~/.honcho/config.json (глобально).

Управление профилями:

hermes profile create coder --clone  # Создает hermes.coder с общим рабочим пространством
hermes honcho sync                   # Заполняет AI peer для существующих профилей

OpenViking

Лучше всего подходит для: самостоятельного управления знаниями с структурированным просмотром.

OpenViking предоставляет иерархию файловой системы с послойной загрузкой. Он бесплатен, самохостируется и дает вам полный контроль над хранением памяти.

Внешние зависимости: OpenViking требует VLM (модель зрения-языка) для семантической обработки и извлечения памяти, а также модель эмбеддингов для векторного поиска — оба обязательны. Поддерживаемые поставщики VLM включают OpenAI, Anthropic, DeepSeek, Gemini, Moonshot и vLLM (для локального развертывания). Для эмбеддингов поддерживаемые поставщики включают OpenAI, Volcengine (Doubao), Jina, Voyage и — через Ollama — любую локально обслуживаемую модель эмбеддингов. Интерактивный мастер openviking-server init может обнаружить доступную оперативную память и рекомендовать подходящие модели Ollama (например, Qwen3-Embedding 8B для эмбеддингов, Gemma 4 27B для VLM) и автоматически настроить всё для полностью локальной настройки без API-ключей. Внешняя база данных не требуется; OpenViking хранит память в файловой системе.

Инструменты: viking_search, viking_read (послойно), viking_browse, viking_remember, viking_add_resource.

Настройка:

pip install openviking
openviking-server init   # интерактивный мастер (рекомендует модели Ollama для локальной настройки)
openviking-server
hermes memory setup  # выбрать "openviking"
echo "OPENVIKING_ENDPOINT=http://localhost:1933" >> ~/.hermes/.env

Mem0

Лучше всего подходит для: управления памятью без вмешательства с автоматическим извлечением.

Mem0 обрабатывает извлечение памяти на стороне сервера через вызов LLM при каждой операции add — он читает разговор, извлекает дискретные факты, удаляет дубликаты и хранит их. Управляемый облачный API берет на себя всю инфраструктуру. Библиотека с открытым исходным кодом и сервер для самостоятельного размещения дают вам полный контроль.

Внешние зависимости: Mem0 требует LLM для извлечения памяти (по умолчанию: OpenAI gpt-4.1-nano; поддерживается 20 поставщиков, включая Ollama, vLLM и LM Studio для локальных моделей) и модель эмбеддингов для извлечения (по умолчанию: OpenAI text-embedding-3-small; поддерживается 10 поставщиков, включая Ollama и HuggingFace для локальных моделей). Хранение использует Qdrant в /tmp/qdrant в режиме библиотеки или PostgreSQL с pgvector в режиме самостоятельного сервера — оба могут работать локально. Полностью локальный стек Mem0 без облака достижим: Ollama для LLM, Ollama для эмбеддингов и локальный экземпляр Qdrant, все настроено через Memory.from_config.

Инструменты: mem0_profile, mem0_search, mem0_conclude.

Настройка:

pip install mem0ai
hermes memory setup  # выбрать "mem0"
echo "MEM0_API_KEY=your-key" >> ~/.hermes/.env

Конфиг: $HERMES_HOME/mem0.json (user_id: hermes-user, agent_id: hermes).

Hindsight

Лучше всего подходит для: извлечения на основе графа знаний с отношениями сущностей.

Hindsight создает граф знаний вашей памяти, извлекая сущности и отношения. Его уникальный инструмент reflect выполняет синтез между памятью — объединяя несколько воспоминаний в новые идеи. Извлечение запускает четыре стратегии параллельно (семантическая, ключевые слова/BM25, обход графа, временная), затем объединяет и переупорядочивает результаты, используя взаимную ранговую фьюзию.

Внешние зависимости: Hindsight требует LLM для извлечения фактов и сущностей при вызовах retain, а также для синтеза при вызовах reflect (по умолчанию: OpenAI; поддерживаемые поставщики включают Anthropic, Gemini, Groq, Ollama, LM Studio и любой endpoint, совместимый с OpenAI). Модель эмбеддингов и модель ранжирования кросс-энкодера встроены в сам Hindsight — они работают локально внутри пакета hindsight-all и не требуют внешнего API. PostgreSQL также встроен в установку Python через управляемый каталог данных pg0; вы также можете направить Hindsight на внешний экземпляр PostgreSQL. Для полностью локальной настройки без облака установите HINDSIGHT_API_LLM_PROVIDER=ollama и направьте его на локальную модель Ollama — retain и recall работают полностью; reflect требует модель, способную вызывать инструменты (например, qwen3:8b).

Инструменты: hindsight_retain, hindsight_recall, hindsight_reflect (уникальный синтез между памятью).

Настройка:

hermes memory setup  # выбрать "hindsight"
echo "HINDSIGHT_API_KEY=your-key" >> ~/.hermes/.env

Автоматически устанавливает hindsight-client (облако) или hindsight-all (локально). Требуется >= 0.4.22.

Конфиг: $HERMES_HOME/hindsight/config.json

  • mode: cloud или local
  • recall_budget: low / mid / high
  • memory_mode: hybrid / context / tools
  • auto_retain / auto_recall: true (по умолчанию)

Локальный UI: hindsight-embed -p hermes ui start

Holographic

Лучше всего подходит для: настроек, ориентированных на конфиденциальность, с исключительно локальным хранением.

Holographic использует алгебру HRR (Holographic Reduced Representation) для кодирования памяти с оценкой доверия для надежности памяти. Нет зависимости от облака — все работает локально на вашем собственном оборудовании.

Внешние зависимости: Нет. Holographic не требует LLM, модели эмбеддингов, базы данных и подключения к сети. Кодирование памяти выполняется полностью через алгебру HRR, работающую в процессе. Это делает его уникальным среди всех восьми поставщиков — это единственный, который работает с нулевыми внешними вызовами. Компромисс заключается в том, что качество извлечения ниже, чем при семантическом поиске на основе эмбеддингов, и нет синтеза между памятью, как reflect в Hindsight. Для пользователей, для которых конфиденциальность и работа без зависимостей являются непреложными, Holographic — единственный вариант, который обеспечивает это безусловно.

Инструменты: 2 инструмента для операций с памятью через алгебру HRR.

Настройка:

hermes memory setup  # выбрать "holographic"

RetainDB

Лучше всего подходит для: высокочастотных обновлений с дельта-сжатием.

RetainDB использует дельта-сжатие для эффективного хранения обновлений памяти и гибридное извлечение (вектор + BM25 + ранжирование) для выявления релевантного контекста. Это облачное решение со стоимостью $20 в месяц, при этом вся обработка памяти выполняется на стороне сервера.

Внешние зависимости: Вызовы LLM RetainDB, конвейер эмбеддингов и ранжирование выполняются на собственной облачной инфраструктуре RetainDB — вы предоставляете только RETAINDB_KEY. Извлечение памяти использует Claude Sonnet на стороне сервера. Опции самостоятельного размещения или локального режима нет. Все данные разговоров отправляются на серверы RetainDB для обработки и хранения. Если суверенитет данных или работа в автономном режиме важны для вашего случая использования, этот поставщик не подходит.

Инструменты: retaindb_profile (профиль пользователя), retaindb_search (семантический поиск), retaindb_context (контекст, релевантный задаче), retaindb_remember (хранение с типом + важностью), retaindb_forget (удаление воспоминаний).

Настройка:

hermes memory setup  # выбрать "retaindb"

ByteRover

Лучше всего подходит для: локальной памяти с читаемым человеком и проверяемым хранением.

ByteRover хранит память как структурированное дерево контекста в формате Markdown — иерархию файлов домена, темы и подтемы — а не векторы эмбеддингов или базу данных. LLM читает исходный контент, рассуждает о нем и помещает извлеченные знания в правильное место в иерархии. Извлечение — это полнотекстовый поиск MiniSearch с послойным откатом к поиску на основе LLM, без необходимости векторной базы данных.

Внешние зависимости: ByteRover требует LLM для курирования и поиска памяти (поддерживается 18 поставщиков, включая Anthropic, OpenAI, Google, Ollama и любой endpoint, совместимый с OpenAI, через слот поставщика openai-compatible). Ему не требуется модель эмбеддингов и база данных — контекстное дерево представляет собой локальный каталог файлов простого Markdown. Синхронизация с облаком является опциональной и используется только для командного сотрудничества; все работает полностью автономно по умолчанию. Для полностью изолированной локальной настройки подключите Ollama как поставщика (brv providers connect openai-compatible --base-url http://localhost:11434/v1), и никакие данные не покинут ваш компьютер.

Инструменты: 3 инструмента для операций с памятью.

Настройка:

hermes memory setup  # выбрать "byterover"

Supermemory

Лучше всего подходит для: корпоративных рабочих процессов с контекстным забором и импортом графа сессий.

Supermemory предоставляет контекстный забор (изоляцию памяти по контексту) и импорт графа сессий (импорт всей истории разговоров). Он автоматически извлекает воспоминания, создает профили пользователей и выполняет гибридное извлечение, combining семантический и ключевой поиск. Управляемый облачный API является основной целью развертывания.

Внешние зависимости: Облачный сервис Supermemory обрабатывает весь вывод LLM и эмбеддингов на стороне сервера — вы предоставляете только ключ API Supermemory. Самостоятельное размещение доступно исключительно как дополнение к корпоративному плану и развертывается на Cloudflare Workers; вам необходимо предоставить PostgreSQL с расширением pgvector (для хранения векторов) и ключ API OpenAI (обязательно, с Anthropic и Gemini как опциональными дополнениями). Пути самостоятельного размещения на основе Docker или локально нет — архитектура тесно связана с краевыми вычислениями Cloudflare Workers. Для пользователей, которым нужен полный суверенитет данных без корпоративного контракта, этот поставщик не является правильным выбором.

Инструменты: 4 инструмента для операций с памятью.

Настройка:

hermes memory setup  # выбрать "supermemory"

Как выбрать

  • Нужна поддержка мультиагентных систем? Honcho
  • Хотите самостоятельное размещение и бесплатно? OpenViking или Holographic
  • Хотите нулевую конфигурацию? Mem0
  • Хотите графы знаний? Hindsight
  • Хотите дельта-сжатие? RetainDB
  • Хотите эффективность пропускной способности? ByteRover
  • Хотите корпоративные функции? Supermemory
  • Хотите конфиденциальность (только локально)? Holographic
  • Хотите полностью локально без внешних служб? Holographic (вообще без зависимостей) или Hindsight/Mem0/ByteRover с Ollama
  • Хотите читаемую человеком, проверяемую память без конвейера эмбеддингов? ByteRover

Для полной настройки поставщиков по профилям и реальных шаблонов рабочих процессов см. Настройка производства Hermes Agent.


Связанные руководства

Подписаться

Получайте новые материалы про системы, инфраструктуру и AI engineering.