AI-System-Speicher — Persistente Wissensdatenbanken und Agenten-Speicher
Persistente Wissensspeicherung über einzelne Chat-Threads hinaus.
Dieser Abschnitt fasst Anleitungen zu persistenter Wissensspeicherung und Gedächtnis für KI-Systeme zusammen – wie Assistenten Fakten, Präferenzen und kondensierten Kontext über Sitzungen hinweg beibehalten, ohne jeden Token in einen einzigen Prompt zu stopfen. Hier bedeutet Gedächtnis intentionale Speicherung (Nutzerdaten, Zusammenfassungen, durch Plugins unterstützte Speicher), nicht GPU-RAM oder Modellgewichte.
Es ergänzt den breiteren Cluster AI Systems — OpenClaw, Hermes, Orchestrierung — und befindet sich neben RAG für Abrufmechaniken und LLM Hosting für den Betrieb von Modellen.
Agenten-Gedächtnis-Provider
Drop-in-Backends, die von Frameworks wie Hermes Agent und OpenClaw bereitgestellt werden — Honcho, OpenViking, Mem0, Hindsight und andere — mit unterschiedlichen Kompromissen bei LLMs, Embeddings und Datenbanken.
- Vergleich von Agenten-Gedächtnis-Providern — vollständige Tabelle, Hinweise zu Abhängigkeiten und Hermes
memory setup-Workflows
Für das nur für Hermes begrenzte Kerngedächtnis (MEMORY.md / USER.md) siehe Hermes Agent Memory System.
Wissensgraphen und Cognee
Institutionelles und Projektwissen, das in Graphen extrahiert wird, um abfragefähige Assistenten zu unterstützen.
- Cognee Self-Hosting — Auswahl des LLMs auf Ollama — praktischer Cognee-Quickstart mit lokalen Modellen
- Das richtige LLM für Cognee auswählen — Lokale Ollama-Einrichtung — Modellvergleich für Graphqualität gegenüber Hardware