Pamięć systemów AI — trwała wiedza i pamięć agentów
Trwała wiedza wykraczająca poza pojedynczą rozmowę.
Ten rozdział zbiera przewodniki dotyczące trwałej wiedzy i pamięci dla systemów AI — jak asystenci utrzymują fakty, preferencje i skondensowany kontekst między sesjami, bez wciskania każdego tokenu do jednego promptu. Tutaj „pamięć” oznacza świadome utrwalanie (faktów dotyczących użytkownika, streszczeń, baz danych wspieranych przez wtyczki), a nie pamięć GPU czy wag modelu.
Uzupełnia on szerszy klastro Systemów AI — OpenClaw, Hermes, orkiestracja — oraz znajduje się obok RAG odpowiedzialnego za mechaniki pobierania danych oraz LLM Hosting dotyczącego uruchamiania modeli.
Dostawcy pamięci agentów
Backendy typu „drop-in” udostępniane przez frameworki takie jak Hermes Agent i OpenClaw — Honcho, OpenViking, Mem0, Hindsight i inne — z różnymi kompromisami dotyczącymi LLM, embeddingów i baz danych.
- Porównanie dostawców pamięci agentów — pełna tabela, uwagi dotyczące zależności oraz przepływy konfiguracji
memory setupw Hermesie
Dla ograniczonej pamięci rdzeniowej tylko dla Hermes (MEMORY.md / USER.md), zobacz System pamięci agenta Hermes.
Grafy wiedzy i Cognee
Wiedza instytucjonalna i projektowa wyodrębniona do grafów w celu wspierania asystentów świadomych mechanizmów pobierania danych.
- Samodzielne hostowanie Cognee — Wybór LLM na Ollama — praktyczny przewodnik startowy Cognee z modelami lokalnymi
- Wybór odpowiedniego LLM dla Cognee — Lokalna konfiguracja Ollama — porównanie modeli pod kątem jakości grafu i sprzętu