AI-systems minne — bestående kunskap och agentminne
Bestående kunskap bortom en enda chatttråd.
Detta avsnitt samlar guider om bestående kunskap och minne för AI-system — hur assistenter behåller fakta, preferenser och sammanfattad kontext över sessioner utan att stoppa in varje token i en enda prompt. Här avser minne medveten bevarande (användarfakta, sammanfattningar, plugin-baserade lagring), inte GPU-minne eller modellvikt.
Det kompletterar den bredare AI-systemklyntan — OpenClaw, Hermes, orkestrering — och finns bredvid RAG för hämtmekanik och LLM-värd för att köra modeller.
Agentminnesleverantörer
Drop-in-bakändar exponerade av ramverk som Hermes Agent och OpenClaw — Honcho, OpenViking, Mem0, Hindsight och andra — med olika kompromisser för LLM, inbäddning och databas.
- Jämförelse av agentminnesleverantörer — fullständig tabell, anteckningar om beroenden och flöden för Hermes
memory setup
För Hermes-ens begränsat kärnminne (MEMORY.md / USER.md), se Hermes Agent Memory System.
Kunskapsgrafer och Cognee
Institutionell och projektrelaterad kunskap extraherad till grafer för hämtmedvetna assistenter.
- Självhostad Cognee — Välja LLM på Ollama — praktisk snabbstart för Cognee med lokala modeller
- Välja rätt LLM för Cognee — Lokal Ollama-installation — modelljämförelse för grafkvalitet jämfört med hårdvara