AIシステムメモリ — 永続的知識とエージェントメモリ

単一のチャットスレッドを超えた永続的な知識

目次

このセクションでは、AIシステムにおける永続的な知識とメモリに関するガイドをまとめています。アシスタントがトークンを1つのプロンプトにすべて詰め込むことなく、セッション間で事実、設定、抽出された文脈をどのように保持するかについて解説します。ここで言うメモリとは、GPUのRAMやモデルの重みではなく、意図的な保持(ユーザーの事実、サマリー、プラグインによるストア)を指します。

これは、より広範なAIシステムクラスター(OpenClaw、Hermes、オーケストレーションなど)を補完するものであり、取得メカニズムに関するRAGや、モデルの実行に関するLLMホスティングと並行して位置づけられます。


エージェントメモリプロバイダ

Hermes AgentやOpenClawなどのフレームワークによって公開されるドロップイン対応のバックエンドです。Honcho、OpenViking、Mem0、Hindsightなどが該当し、LLM、埋め込み、データベースのトレードオフが異なります。

Hermes専用のバウンデッドコアメモリ(MEMORY.md / USER.md)については、**Hermesエージェントメモリシステム**を参照してください。


ナレッジグラフとCognee

リトリバル対応のアシスタントのために、組織内やプロジェクト内の知識をグラフとして抽出します。


スタックコンテキスト

購読する

システム、インフラ、AIエンジニアリングの新記事をお届けします。