AI 시스템 메모리 — 지속적 지식과 에이전트 메모리
단일 채팅 스레드를 넘어 지속되는 지식
Page content
이 섹션은 AI 시스템의 지속적 지식과 메모리에 대한 가이드를 모았습니다. 즉, 어시스턴트가 모든 토큰을 하나의 프롬프트에 무작정 넣지 않고도 세션 간에 사실, 선호도 및 정제된 맥락을 어떻게 유지하는지에 관한 내용입니다. 여기서 ‘메모리’는 GPU RAM이나 모델 가중치가 아닌, 의도적인 보존(사용자 사실, 요약, 플러그인 기반 저장소)을 의미합니다.
이 섹션은 더 광범위한 AI Systems 클러스터(OpenClaw, Hermes, 오케스트레이션 등)를 보완하며, 검색 메커니즘을 위한 RAG 및 모델 실행을 위한 LLM Hosting과 함께 배치됩니다.
에이전트 메모리 제공자
Hermes Agent 및 OpenClaw와 같은 프레임워크에서 제공하는 드롭인 백엔드입니다. Honcho, OpenViking, Mem0, Hindsight 등이 있으며, 각기 다른 LLM, 임베딩, 데이터베이스 간의 트레이드오프가 존재합니다.
- 에이전트 메모리 제공자 비교 — 전체 테이블, 종속성 참고 사항, Hermes
memory setup흐름
Hermes 전용 제한된 핵심 메모리(MEMORY.md / USER.md)에 대해서는 **Hermes Agent Memory System**을 참조하십시오.
지식 그래프 및 Cognee
검색 인식형 어시스턴트를 위해 그래프로 추출된 기관 및 프로젝트 지식.
- Self-Hosting Cognee — Choosing LLM on Ollama — 로컬 모델을 사용한 Cognee 실습 퀵스타트
- Choosing the Right LLM for Cognee — Local Ollama Setup — 그래프 품질 대 하드웨어 관점의 모델 비교