Память ИИ-систем: устойчивые знания и память агентов
Персистентное знание за пределами одного потока чата.
Этот раздел собирает руководства по постоянной памяти и сохранению знаний для систем ИИ — как ассистенты хранят факты, предпочтения и сжатый контекст между сессиями, не пытаясь впихнуть каждый токен в один промпт. Здесь под памятью подразумевается осознанное хранение (факты о пользователе, резюме, хранилища с поддержкой плагинов), а не оперативная память GPU или веса моделей.
Это дополнение к более широкому кластеру Системы ИИ — OpenClaw, Hermes, оркестрация — и находится рядом с RAG для механики извлечения данных и Хостинг LLM для запуска моделей.
Провайдеры памяти агентов
Встраиваемые бэкенды, предоставляемые фреймворками, такими как Hermes Agent и OpenClaw — Honcho, OpenViking, Mem0, Hindsight и другие — с различными компромиссами в выборе LLM, эмбеддингов и баз данных.
- Сравнение провайдеров памяти агентов — полная таблица, заметки о зависимостях и потоки
memory setupдля Hermes
Для ограниченной ядровой памяти только для Hermes (MEMORY.md / USER.md) см. Система памяти агента Hermes.
Графы знаний и Cognee
Институциональные и проектные знания, извлеченные в графы для ассистентов с возможностью извлечения данных.
- Самохостинг Cognee — Выбор LLM на Ollama — практическое руководство по быстрому началу работы с Cognee с использованием локальных моделей
- Выбор правильного LLM для Cognee — Локальная настройка Ollama — сравнение моделей по качеству графа и аппаратным требованиям