Mémoire des systèmes d'IA — Connaissances persistantes et mémoire des agents
Connaissances persistantes au-delà d'une seule conversation.
Cette section regroupe des guides sur la mémoire et le savoir persistants pour les systèmes d’IA — comment les assistants conservent les faits, les préférences et le contexte distillé d’une session à l’autre, sans surcharger un seul prompt avec tous les jetons. Ici, la mémoire désigne une rétention intentionnelle (faits utilisateurs, résumés, bases de données soutenues par des plugins), et non la RAM du GPU ou les poids du modèle.
Elle complète le plus large ensemble Systèmes IA — OpenClaw, Hermes, orchestration — et s’ajoute à RAG pour les mécaniques de récupération et Hébergement de LLM pour l’exécution des modèles.
Fournisseurs de mémoire pour agents
Bases de données plug-and-play exposées par des frameworks tels que Hermes Agent et OpenClaw — Honcho, OpenViking, Mem0, Hindsight, et autres — avec différents compromis en termes de LLM, d’embeddings et de bases de données.
- Comparaison des fournisseurs de mémoire pour agents — tableau complet, notes sur les dépendances et flux
memory setupde Hermes
Pour la mémoire principale bornée spécifique à Hermes (MEMORY.md / USER.md), voir Système de mémoire de l’agent Hermes.
Graphes de connaissances et Cognee
Connaissances institutionnelles et de projet extraites sous forme de graphes pour des assistants conscients de la récupération.
- Auto-hébergement de Cognee — Choisir un LLM sur Ollama — démarrage rapide pratique de Cognee avec des modèles locaux
- Choisir le bon LLM pour Cognee — Configuration locale Ollama — comparaison de modèles pour la qualité du graphe par rapport au matériel