Agentminnesleverantörer jämförs – Honcho, Mem0, Hindsight och fem till

Åtta inpluggbara backends för agentens beständiga minne.

Sidinnehåll

Moderna assistenter glömmer allt när du stänger fliken om inte något består utanför kontextfönstret. Agentminnesleverantörer är tjänster eller bibliotek som lagrar fakta och sammanfattningar över sessioner — ofta integrerade som plugins så att ramverket förblir lättviktigt medan minnet skalas.

Denna guide jämför åtta backend-tjänster som levereras som externa minnesplugins för Hermes Agent — Honcho, OpenViking, Mem0, Hindsight, Holographic, RetainDB, ByteRover och Supermemory — och förklarar hur de passar in i större AI-system-stackar. Samma leverantörer dyker upp i OpenClaw och annan agentverksygen via community- eller officiella integrationer. AI Systems Memory hub listar denna artikel tillsammans med Cognee och relaterade guider.

För Hermes-specifikt begränsat kärnminne (MEMORY.md och USER.md), frysningsbeteende och triggers, se Hermes Agent Memory System.


Hermes Agent listar åtta externa minnesleverantörsplugins för bestående, över sessioner sträckande kunskap. Endast en extern leverantör kan vara aktiv i taget. Inbyggda filerna MEMORY.md och USER.md förblir laddade tillsammans med den — det är additivt, inte ett ersättande.

Externa beroenden. Varje extern leverantör utöver Holographic kräver minst ett externt tjänstanrop — en LLM för minnesutvinning, en inbäddningsmodell för semantisk sökning eller en databas som PostgreSQL för lagring. Dessa beroenden har direkta konsekvenser för integritet, kostnad och om din minnesstack kan köras helt självhostad. Hindsight och ByteRover minimerar eller eliminerar de flesta beroenden; Honcho, Mem0 och Supermemory kräver flest komponenter. Där en leverantör stödjer Ollama eller någon OpenAI-kompatibel endpoint, kan du ruttar LLM- och inbäddningsanrop till en lokal modell och hålla data borta från tredjepartstjänster helt.

Aktivering med Hermes Agent

hermes memory setup   # Interaktiv valare + konfiguration
hermes memory status  # Kontrollera vad som är aktivt
hermes memory off     # Inaktivera extern leverantör

Eller manuellt i ~/.hermes/config.yaml:

memory:
  provider: openviking  # eller honcho, mem0, hindsight, holographic, retaindb, byterover, supermemory

Leverantörsjämförelse

Leverantör Lagring Kostnad Externa beroenden Självhostbar Unik funktion
Honcho Moln/Självhostad Betald/Gratis LLM + Inbäddningsmodell + PostgreSQL/pgvector + Redis Ja — Docker / K3s / Fly.io Dialektisk användarmodellering + sessionsspecifik kontext
OpenViking Självhostad Gratis LLM (VLM) + Inbäddningsmodell Ja — lokal server; Ollama-innat wizard Filsystemhierarki + lagrad laddning
Mem0 Moln/Självhostad Betald/Gratis OSS LLM + Inbäddningsmodell + Vektordatabas (Qdrant eller pgvector) Ja — Docker Compose OSS; fullt lokalt möjligt Serverbaserad LLM-utvinning
Hindsight Moln/Lokalt Gratis/Betald LLM + bundlad PostgreSQL + inbyggd inbäddare + inbyggd reranker Ja — Docker eller inbäddad Python; fullt lokalt med Ollama Kunskapsgraf + reflect-syntes
Holographic Lokalt Gratis Inga Native — ingen infrastruktur krävs HRR-algebra + tillitsscore
RetainDB Moln $20/mån Molnhärd (LLM + hämtning på RetainDB:s servrar) Nej Deltakompression
ByteRover Lokalt/Moln Gratis/Betald Endast LLM — ingen inbäddningsmodell, ingen DB Ja — lokal först som standard; Ollama stöds Filbaserad kontextträd; ingen inbäddningspipeline
Supermemory Moln Betald LLM + PostgreSQL/pgvector (enterprise Cloudflare-deploy) Endast enterprise-plan Kontextavskärmning + sessionsgraf-ingest

Detaljerad genomgång

Honcho

Bäst för: multiagent-system, kontext över sessioner, användar-agent-justering.

Honcho kör parallellt med befintligt minne — USER.md förblir oförändrad, och Honcho lägger till en ytterligare kontextlag. Den modellerar konversationer som jämbördiga parter som utbyter meddelanden — en användarpar plus en AI-par per Hermes-profil, alla delar ett arbetsyte.

Externa beroenden: Honcho kräver en LLM för sessionssammanfattning, användarrepresentation och dialektisk resonemang; en inbäddningsmodell för semantisk sökning över observationer; PostgreSQL med pgvector-tillägget för vektorlagring; och Redis för cachelagring. Den hanterade molntjänsten på api.honcho.dev hanterar allt detta åt dig. För självhostade installationer (Docker, K3s eller Fly.io) tillhandahåller du egna inloggningsuppgifter. LLM-slotten accepterar alla OpenAI-kompatibla endpoints, inklusive Ollama och vLLM, så inferens kan hållas lokalt. Inbäddningsslotten standardinställning är openai/text-embedding-3-small men stödjer konfigurerbara leverantörer via LLM_EMBEDDING_API_KEY och LLM_EMBEDDING_BASE_URL — alla OpenAI-kompatibla inbäddningsservrar fungerar, inklusive lokala alternativ som vLLM med en BGE-modell.

Verktyg: honcho_profile (läs/uppdatera par-kort), honcho_search (semantisk sökning), honcho_context (sessionskontext — sammanfattning, representation, kort, meddelanden), honcho_reasoning (LLM-syntetiserad), honcho_conclude (skapa/radera slutsatser).

Viktiga konfigurationsinställningar:

  • contextCadence (standard 1): Minsta antal turar mellan baslagets uppdatering
  • dialecticCadence (standard 2): Minsta antal turar mellan peer.chat() LLM-anrop (1-5 rekommenderas)
  • dialecticDepth (standard 1): .chat()-pass per anrop (klippt 1-3)
  • recallMode (standard ‘hybrid’): hybrid (auto+verktyg), context (endast injektion), tools (endast verktyg)
  • writeFrequency (standard ‘async’): Spolningstid: async, turn, session, eller heltal N
  • observationMode (standard ‘directional’): directional (alla på) eller unified (delad pool)

Arkitektur: Tvålagrig kontextinjektion — baslag (sessionssammanfattning + representation + par-kort) + dialektiskt tillägg (LLM-resonemang). Väljer automatiskt kallstart vs varma prompts.

Många-par-kartläggning: Arbetsyte är en delad miljö över profiler. Användarpar (peerName) är en global mänsklig identitet. AI-par (aiPeer) är en per Hermes-profil (hermes som standard, hermes.<profil> för andra).

Installation:

hermes memory setup  # välj "honcho"
# eller legacy: hermes honcho setup

Konfiguration: $HERMES_HOME/honcho.json (profilspecifik) eller ~/.honcho/config.json (global).

Profilhantering:

hermes profile create coder --clone  # Skapar hermes.coder med delat arbetsyte
hermes honcho sync                   # Backfills AI-par för befintliga profiler

OpenViking

Bäst för: självhostad kunskapsförvaltning med strukturerad läsning.

OpenViking erbjuder en filsystemhierarki med lagrad laddning. Det är gratis, självhostat, och ger dig full kontroll över din minneslagring.

Externa beroenden: OpenViking kräver en VLM (vision-språk-modell) för semantisk bearbetning och minnesutvinning, samt en inbäddningsmodell för vektorsökning — båda är obligatoriska. Stödda VLM-leverantörer inkluderar OpenAI, Anthropic, DeepSeek, Gemini, Moonshot och vLLM (för lokal deployment). För inbäddningar inkluderar stödda leverantörer OpenAI, Volcengine (Doubao), Jina, Voyage och — via Ollama — alla lokalt serverade inbäddningsmodeller. openviking-server init interaktiva wizard kan detektera tillgängligt RAM och rekommendera lämpliga Ollama-modeller (t.ex. Qwen3-Embedding 8B för inbäddningar, Gemma 4 27B för VLM) och konfigurera allt automatiskt för en fullt lokal, noll-API-nyckel-installation. Ingen extern databas krävs; OpenViking lagrar minne i filsystemet.

Verktyg: viking_search, viking_read (lagrad), viking_browse, viking_remember, viking_add_resource.

Installation:

pip install openviking
openviking-server init   # interaktiv wizard (rekommenderar Ollama-modeller för lokal setup)
openviking-server
hermes memory setup  # välj "openviking"
echo "OPENVIKING_ENDPOINT=http://localhost:1933" >> ~/.hermes/.env

Mem0

Bäst för: hands-free minnesförvaltning med automatisk utvinning.

Mem0 hanterar minnesutvinning serverbaserat via ett LLM-anrop vid varje add-operation — den läser konversationen, utvinner diskreta fakta, dubbelklickar och lagrar dem. Den hanterade moln-API:n hanterar all infrastruktur. Det öppna källkods-biblioteket och självhostade servern ger dig full kontroll.

Externa beroenden: Mem0 kräver en LLM för minnesutvinning (standard: OpenAI gpt-4.1-nano; 20 leverantörer stöds, inklusive Ollama, vLLM och LM Studio för lokala modeller) och en inbäddningsmodell för hämtning (standard: OpenAI text-embedding-3-small; 10 leverantörer stöds, inklusive Ollama och HuggingFace för lokala modeller). Lagring använder Qdrant på /tmp/qdrant i biblioteksläge, eller PostgreSQL med pgvector i självhostat serverläge — båda kan köras lokalt. En fullt lokal, noll-moln Mem0-stack är möjlig: Ollama för LLM, Ollama för inbäddningar, och en lokal Qdrant-instans, allt konfigurerat via Memory.from_config.

Verktyg: mem0_profile, mem0_search, mem0_conclude.

Installation:

pip install mem0ai
hermes memory setup  # välj "mem0"
echo "MEM0_API_KEY=din-nyckel" >> ~/.hermes/.env

Konfiguration: $HERMES_HOME/mem0.json (user_id: hermes-user, agent_id: hermes).

Hindsight

Bäst för: kunskapsgraf-baserad återkallning med entitetsrelationer.

Hindsight bygger en kunskapsgraf av ditt minne, och utvinner entiteter och relationer. Dess unika reflect-verktyg utför tvärs-minnes-syntes — kombinerar flera minnen till nya insikter. Återkallning kör fyra hämtstrategier parallellt (semantisk, nyckelord/BM25, graf traversal, temporär), och slår sedan samman och reordnar resultat med reciprok rankfusion.

Externa beroenden: Hindsight kräver en LLM för fakta- och entitetsutvinning vid retain-anrop, och för syntes vid reflect-anrop (standard: OpenAI; stödda leverantörer inkluderar Anthropic, Gemini, Groq, Ollama, LM Studio och alla OpenAI-kompatibla endpoints). Inbäddningsmodellen och cross-encoder-reranker-modellen är bundna inuti Hindsight självt — de körs lokalt inom hindsight-all-paketet och kräver inga externa APIs. PostgreSQL är också bundet med den inbäddade Python-installationen via en hanterad pg0-datamapp; du kan alternativt peka Hindsight mot en extern PostgreSQL-instans. För en fullt lokal, noll-moln-installation, sätt HINDSIGHT_API_LLM_PROVIDER=ollama och peka på en lokal Ollama-modell — retain och recall fungerar fullt; reflect kräver en verktygsanrop-förmåga-modell (t.ex. qwen3:8b).

Verktyg: hindsight_retain, hindsight_recall, hindsight_reflect (unik tvärs-minnes-syntes).

Installation:

hermes memory setup  # välj "hindsight"
echo "HINDSIGHT_API_KEY=din-nyckel" >> ~/.hermes/.env

Auto-installerar hindsight-client (moln) eller hindsight-all (lokal). Kräver >= 0.4.22.

Konfiguration: $HERMES_HOME/hindsight/config.json

  • mode: cloud eller local
  • recall_budget: low / mid / high
  • memory_mode: hybrid / context / tools
  • auto_retain / auto_recall: true (standard)

Lokal UI: hindsight-embed -p hermes ui start

Holographic

Bäst för: integritetsfokuserade installationer med endast lokal lagring.

Holographic använder HRR (Holographic Reduced Representation) algebra för minneskodning, med tillitsscore för minnespålitlighet. Ingen molnberoende — allt körs lokalt på din egen hårdvara.

Externa beroenden: Inga. Holographic kräver ingen LLM, ingen inbäddningsmodell, ingen databas och ingen nätverksanslutning. Minneskodning görs helt genom HRR-algebra som körs in-process. Detta gör det unikt bland alla åtta leverantörer — det är den enda som opererar med noll externa anrop. Avvägningspunkten är att hämtkvaliteten är lägre än inbäddningsbaserad semantisk sökning, och det finns ingen tvärs-minnes-syntes som Hindsights reflect. För användare där integritet och noll-beroende-operation är oundvikliga, är Holographic det enda alternativet som levererar detta villkorslöst.

Verktyg: 2 verktyg för minnesoperationer via HRR-algebra.

Installation:

hermes memory setup  # välj "holographic"

RetainDB

Bäst för: högfrekventa uppdateringar med deltakompression.

RetainDB använder deltakompression för att effektivt lagra minnesuppdateringar och hybridhämtning (vektor + BM25 + reranking) för att lyfta relevant kontext. Det är molnbaserat med en kostnad på $20/månad, med all minnesbearbetning hanterad serverbaserat.

Externa beroenden: RetainDB:s LLM-anrop, inbäddningspipeline och reranking körs alla på RetainDB:s egen molninfrastruktur — du tillhandahåller endast en RETAINDB_KEY. Minnesutvinning använder Claude Sonnet serverbaserat. Det finns inget självhostningsalternativ och inget lokalt läge. All konversationsdata skickas till RetainDB:s servrar för bearbetning och lagring. Om datasuverenitet eller offline-operation är viktig för ditt användningsfall, är denna leverantör inte lämplig.

Verktyg: retaindb_profile (användarprofil), retaindb_search (semantisk sökning), retaindb_context (uppgiftsrelevant kontext), retaindb_remember (lagring med typ + viktighet), retaindb_forget (radera minnen).

Installation:

hermes memory setup  # välj "retaindb"

ByteRover

Bäst för: lokal-först-minne med mänskligt läsbar, granskbar lagring.

ByteRover lagrar minne som en strukturerad markdown-kontextträd — en hierarki av domän-, ämnes- och underämnesfiler — snarare än inbäddningsvektorer eller en databas. En LLM läser källinnehåll, resonemang om det, och placerar utvunnen kunskap på rätt plats i hierarkin. Hämtning är MiniSearch fulltext-sökning med lagrad fallback till LLM-driven sökning, utan vektordatabas krävs.

Externa beroenden: ByteRover kräver en LLM för minneskuratering och sökning (18 leverantörer stöds, inklusive Anthropic, OpenAI, Google, Ollama och alla OpenAI-kompatibla endpoints via openai-compatible-leverantörsslottet). Det kräver ingen inbäddningsmodell och ingen databas — kontextträdet är en lokal katalog av plain markdown-filer. Molnsynkronisering är valfri och används endast för team-samarbete; allt fungerar fullt offline som standard. För en fullt fristående lokal installation, anslut Ollama som leverantör (brv providers connect openai-compatible --base-url http://localhost:11434/v1) och ingen data lämnar din maskin.

Verktyg: 3 verktyg för minnesoperationer.

Installation:

hermes memory setup  # välj "byterover"

Supermemory

Bäst för: enterprise-flöden med kontextavskärmning och sessionsgraf-ingest.

Supermemory erbjuder kontextavskärmning (isolering av minne efter kontext) och sessionsgraf-ingest (import av hela konversationshistorier). Den utvinner automatiskt minnen, bygger användarprofiler och kör hybridhämtning som kombinerar semantisk och nyckelords-sökning. Den hanterade moln-API:n är primära deployment-målet.

Externa beroenden: Supermemory:s molntjänst hanterar all LLM-inferens och inbäddning serverbaserat — du tillhandahåller endast en Supermemory API-nyckel. Självhostning finns exklusivt som ett enterprise-plan tillägg och deployeras till Cloudflare Workers; det kräver att du tillhandahåller PostgreSQL med pgvector-tillägget (för vektorlagring) och en OpenAI API-nyckel (obligatorisk, med Anthropic och Gemini som valfria tillägg). Det finns ingen Docker-baserad eller lokal självhostningsväg — arkitekturen är tätt kopplad till Cloudflare Workers edge-bearbetning. För användare som behöver full datasuverenitet utan ett enterprise-avtal, är denna leverantör inte rätt val.

Verktyg: 4 verktyg för minnesoperationer.

Installation:

hermes memory setup  # välj "supermemory"

Hur man väljer

  • Behöver multiagent-stöd? Honcho
  • Vill ha självhostat och gratis? OpenViking eller Holographic
  • Vill ha noll-konfiguration? Mem0
  • Vill ha kunskapsgrafer? Hindsight
  • Vill ha deltakompression? RetainDB
  • Vill ha bandbreddseffektivitet? ByteRover
  • Vill ha enterprise-funktioner? Supermemory
  • Vill ha integritet (endast lokal)? Holographic
  • Vill ha fullt lokalt med noll externa tjänster? Holographic (inga beroenden alls) eller Hindsight/Mem0/ByteRover med Ollama
  • Vill ha mänskligt läsbar, granskbar minne utan inbäddningspipeline? ByteRover

För full profil-för-profil leverantörskonfigurationer och verkliga arbetsflödesmönster, se Hermes Agent production setup.


Relaterade guider

Prenumerera

Få nya inlägg om system, infrastruktur och AI-ingenjörskonst.