AIシステムメモリ — 永続的知識とエージェントメモリ
単一のチャットスレッドを超えた永続的な知識
目次
このセクションでは、AIシステムにおける永続的な知識とメモリに関するガイドをまとめています。アシスタントがトークンを1つのプロンプトにすべて詰め込むことなく、セッション間で事実、設定、抽出された文脈をどのように保持するかについて解説します。ここで言うメモリとは、GPUのRAMやモデルの重みではなく、意図的な保持(ユーザーの事実、サマリー、プラグインによるストア)を指します。
これは、より広範なAIシステムクラスター(OpenClaw、Hermes、オーケストレーションなど)を補完するものであり、取得メカニズムに関するRAGや、モデルの実行に関するLLMホスティングと並行して位置づけられます。
エージェントメモリプロバイダ
Hermes AgentやOpenClawなどのフレームワークによって公開されるドロップイン対応のバックエンドです。Honcho、OpenViking、Mem0、Hindsightなどが該当し、LLM、埋め込み、データベースのトレードオフが異なります。
- エージェントメモリプロバイダの比較 — 完全なテーブル、依存関係の注記、およびHermesの
memory setupフロー
Hermes専用のバウンデッドコアメモリ(MEMORY.md / USER.md)については、**Hermesエージェントメモリシステム**を参照してください。
ナレッジグラフとCognee
リトリバル対応のアシスタントのために、組織内やプロジェクト内の知識をグラフとして抽出します。
- Cogneeのセルフホスティング — OllamaでのLLMの選択 — ローカルモデルを使用したCogneeの実践的なクイックスタート
- Cogneeに最適なLLMの選択 — ローカルOllamaセットアップ — グラフの品質とハードウェアに関するモデル比較