Memória de Sistemas de IA — Conhecimento Persistente e Memória de Agentes
Conhecimento persistente além de uma única conversa.
Esta seção reúne guias sobre conhecimento persistente e memória para sistemas de IA — como os assistentes mantêm fatos, preferências e contexto distilado entre sessões, sem sobrecarregar um único prompt com todos os tokens. Aqui, memória significa retenção intencional (fatos do usuário, resumos, repositórios apoiados por plugins), não RAM de GPU ou pesos do modelo.
Ela complementa o conjunto mais amplo de Sistemas de IA — OpenClaw, Hermes, orquestração — e está ao lado de RAG para mecânicas de recuperação e Hospedagem de LLM para execução de modelos.
Provedores de memória para agentes
Backends plugáveis expostos por frameworks como Hermes Agent e OpenClaw — Honcho, OpenViking, Mem0, Hindsight e outros — com diferentes compensações entre LLM, embeddings e banco de dados.
- Provedores de memória para agentes comparados — tabela completa, notas sobre dependências e fluxos de
memory setupdo Hermes
Para memória de núcleo limitada apenas ao Hermes (MEMORY.md / USER.md), consulte o Sistema de Memória do Hermes Agent.
Grafos de conhecimento e Cognee
Conhecimento institucional e de projeto extraído em grafos para assistentes conscientes da recuperação.
- Auto-hospedagem do Cognee — Escolhendo LLM no Ollama — início rápido prático do Cognee com modelos locais
- Escolhendo o LLM Certo para o Cognee — Configuração Local no Ollama — comparação de modelos para qualidade do grafo versus hardware