Memoria dei Sistemi di AI — Conoscenza Persistente e Memoria degli Agenti
Conoscenza persistente oltre un singolo thread di chat.
Questa sezione raccoglie guide sulla conoscenza persistente e la memoria per i sistemi AI — come gli assistenti mantengono fatti, preferenze e contesto distillato tra le sessioni senza inserire ogni token in un unico prompt. Qui, per memoria si intende la ritenzione intenzionale (fatti dell’utente, riepiloghi, archivi supportati da plugin), non la RAM della GPU o i pesi del modello.
Completa il cluster più ampio Sistemi AI — OpenClaw, Hermes, orchestrazione — e si affianca a RAG per la meccanica del recupero e a Hosting LLM per l’esecuzione dei modelli.
Provider di memoria per agenti
Backend plug-and-play esposti da framework come Hermes Agent e OpenClaw — Honcho, OpenViking, Mem0, Hindsight e altri — con diversi compromessi tra LLM, embedding e database.
- Confronto tra provider di memoria per agenti — tabella completa, note sulle dipendenze e flussi di
memory setupdi Hermes
Per la memoria di base limitata solo a Hermes (MEMORY.md / USER.md), consultare Sistema di memoria dell’agente Hermes.
Grafi di conoscenza e Cognee
Conoscenza istituzionale e di progetto estratta in grafi per assistenti consapevoli del recupero.
- Self-Hosting di Cognee — Scelta dell’LLM su Ollama — guida pratica rapida a Cognee con modelli locali
- Scelta dell’LLM giusto per Cognee — Configurazione locale su Ollama — confronto dei modelli per qualità del grafo vs hardware