これまでAIエージェントの「記憶」は、ツールの中に組み込まれた付属品でした。ChatGPTのMemory機能や、LangChainのConversationBufferMemoryのように。ところが2026年に入って流れが変わりました。メモリそのものが独立したインフラカテゴリになり、mem0はGitHub 47.8Kスターを獲得してシリーズA 2,400万ドルを調達しました。 Lettaはフルスタックエージェントランタイムとしてのポジションをとり、OpenAI MemoryはChatGPT内に独自ソリューションを組み込みました。3者がそれぞれ異なる答えを持ち出す中、精度とレイテンシを同時に測定したLOCOMOベンチマークが初めて公開され、優劣が見え始めました。

ひと目でわかる
会話の蓄積 メモリの抽出・保存 関連メモリの検索 プロンプトへの注入 パーソナライズされた応答

なぜ独立したカテゴリになったのか?

以前は「RAGイコールメモリ」でした。会話ログをベクターDBに入れておいて、類似度検索で取り出せば十分だと。ところがLOCOMOベンチマークがこの前提を覆しました。mem0が4月1日に公開した結果によると、単純なRAGは精度61%にとどまり、ChatGPT Memoryはさらに低い52.9%でした。 一方、Mem0は66.9%、グラフメモリと組み合わせたMem0gは68.4%まで引き上げました。コンテキスト全体をLLMに渡すFull-context方式が72.9%で最高でしたが、応答に9.87秒かかりました。Mem0gは1.09秒です。

メモリは「精度 vs レイテンシ」のトレードオフ問題として定着し、これを解決しようとする企業が独立したインフラとして分離されました。

ツールの中にメモリを埋め込んでしまうと、2つのことができなくなります。1つ目は、複数のエージェントが同じユーザー情報を共有できないこと。ChatGPTで話した内容がClaudeに引き継がれません。2つ目は、会話以外のデータ(メール、ドキュメント、CRM)と統合した記憶を作れないこと。どちらもツール依存から来る限界です。そこでメモリを切り出して、どのLLMでもどのエージェントでも接続できるようにしたのが、mem0・Letta・Zepのような新しいカテゴリです。

  1. エピソード記憶(Episodic memory)
    先週火曜日にユーザーが「Cursor 3を調べて」と言った出来事の記録。時系列が重要。
  2. 意味記憶(Semantic memory)
    「このユーザーはフルスタック開発者で、Next.jsを好む」という一般的な事実。時間に依存しない。
  3. 手続き記憶(Procedural memory)
    「新しいプロジェクトを始めるときは必ず.envから作る」という行動パターン。学習された手順。

この3つを1つのシステムで同時に扱うことが、2026年のメモリインフラの標準要件です。

3者はなぜ異なる道を選んだのか?

mem0・Letta・OpenAI Memoryは同じ問題を解くとしながら、出した答えは正反対です。まとめるとこうなります。

基準 Mem0 Letta OpenAI Memory
アプローチ Bolt-onライブラリ フルスタックエージェントランタイム ChatGPT内蔵機能
ロックインコスト 低い(数日で交換可能) 高い(2〜6週間) 非常に高い(ChatGPT依存)
スコープ user_id / agent_id / run_id / app_id の4段階 core / recall / archival の3段階 グローバル単一スコープ
ベンチマーク精度 66.9%(Mem0g 68.4%) 500回以上のインタラクションを維持 52.9%
料金 無料 月1,000件、Pro 月$249 オープンソース + クラウド ChatGPT Plus 月$20に含む
適したケース 複数のLLMを切り替えるマルチエージェント 長期運用する自律エージェント 個人ChatGPTユーザー

Mem0は「メモリはライブラリだ」という路線です。OpenAIでもAnthropicでもGeminiでも、切り替えながら同じメモリレイヤーを使えます。21のフレームワークと19のベクターストアバックエンドをサポートしています。 核心的な価値はポータビリティ。モデルが変わっても、ユーザーの記憶はついてきます。

Lettaは「メモリはOSだ」という路線です。MemGPT論文から生まれたこの会社は、メモリをコア/リコール/アーカイブの3段階に分けて、OSのように管理します。エージェントが自分のメモリを直接編集・圧縮・昇格させる自律性を持ちます。 ただしロックインが大きいです。一度Lettaに乗ると、別のシステムへの移行に2〜6週間かかります。

OpenAI Memoryは「メモリはChatGPTの機能のひとつ」にとどまりました。だからLOCOMOで52.9%と最下位なんです。

Lettaが追跡した別のベンチマークでは、Lettaが500回以上のインタラクションを経ても一貫性を維持した一方、通常のRAGは50回を超えると記憶が断片化しました。 長期運用が必要ならLetta、マルチモデル/マルチエージェントならmem0が優位と考えて大丈夫です。

注意 — OpenAI Memoryだけを使うべきでない理由
ChatGPT内で完結するなら十分です。ただし、サイドプロジェクトでエージェントを作ったり、Claude CodeやCursorでも同じユーザーコンテキストを使いたい場合、OpenAI Memoryはクローズドなシステムなので限界が明確です。外部APIがありません。

どれをどう選べばいいのか?

実践的な判断基準を3つに絞りました。この流れに沿って考えると、意思決定がスムーズになります。

  1. 「複数のLLMを切り替える可能性があるか?」
    Yes → Mem0。No → 次の質問へ。
  2. 「エージェントが自律的に数日〜数週間単位で運用されるか?」
    Yes → Letta。No → 次の質問へ。
  3. 「ChatGPT内で完結するか?」
    Yes → OpenAI Memory。No → Mem0に戻ってスタート。

実際の導入事例を見ると、Mem0は無料ティアで月1,000件のメモリを許容しているので、サイドプロジェクトで始めやすいです。本格的なワークロードはPro 月$249からで、このときグラフメモリ(Mem0g)が有効になって精度が1.5ポイント上がります。 Lettaはオープンソースコアがフリーでセルフホストでき、マネージドクラウドは従量課金です。初期費用はほぼゼロです。

もうひとつ注目したいのがOpenMemory MCPです。mem0が作ったローカルファースト版で、記憶をユーザーのデバイスだけに保存し、MCPプロトコルですべてのエージェントがアクセスできます。 プライバシーが重要な作業なら、クラウドメモリの代わりにこちらを選ぶのが正解です。

さらに深掘りしたい人へ

Mem0公式LOCOMOベンチマーク — 4月1日公開 Mem0g 68.4% / 1.09秒 vs OpenAI Memory 52.9%。精度とレイテンシを同時に測定した初の公開比較 mem0.ai

Mem0 vs Letta vs MemGPT ロックイン分析 システム移行に数日 vs 2〜6週間かかる理由。ライブラリ/ランタイム/研究OSSの構造的な違い tokenmix.ai

2026年 AIエージェントメモリツール8選 Mem0/Zep/Pinecone/Letta/LangMem/Weaviate/Neo4j/Redis の料金と適合ワークロード techsy.io

Mem0 ECAI 2025論文 arXiv:2504.19413。RAG比26%の精度向上、91%のレイテンシ短縮の根拠 arxiv.org