<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Memory Palace on ICE-ICE-BEAR-BLOG</title><link>https://ice-ice-bear.github.io/ko/tags/memory-palace/</link><description>Recent content in Memory Palace on ICE-ICE-BEAR-BLOG</description><generator>Hugo -- gohugo.io</generator><language>ko</language><lastBuildDate>Sun, 10 May 2026 00:00:00 +0900</lastBuildDate><atom:link href="https://ice-ice-bear.github.io/ko/tags/memory-palace/index.xml" rel="self" type="application/rss+xml"/><item><title>에이전트 메모리 아키텍처 두 갈래 — MemPalace의 구조화 인덱스 vs Hermes Agent의 스크래치패드 자기학습</title><link>https://ice-ice-bear.github.io/ko/posts/2026-05-10-agent-memory-architectures/</link><pubDate>Sun, 10 May 2026 00:00:00 +0900</pubDate><guid>https://ice-ice-bear.github.io/ko/posts/2026-05-10-agent-memory-architectures/</guid><description>&lt;img src="https://ice-ice-bear.github.io/" alt="Featured image of post 에이전트 메모리 아키텍처 두 갈래 — MemPalace의 구조화 인덱스 vs Hermes Agent의 스크래치패드 자기학습" /&gt;&lt;h2 id="개요"&gt;개요
&lt;/h2&gt;&lt;p&gt;2026-05-10 같은 시기에 회자된 두 리포 — &lt;a class="link" href="https://github.com/MemPalace/mempalace" target="_blank" rel="noopener"
 &gt;MemPalace/mempalace&lt;/a&gt;와 &lt;a class="link" href="https://github.com/NousResearch/hermes-agent" target="_blank" rel="noopener"
 &gt;NousResearch/hermes-agent&lt;/a&gt; — 가 에이전트 메모리의 서로 다른 두 프리미티브를 정면 충돌시킨다. 한쪽은 &lt;strong&gt;구조화된 인덱스&lt;/strong&gt;(wings/rooms/drawers + 시간 윈도가 있는 지식 그래프), 반대쪽은 &lt;strong&gt;emergent 스크래치패드 + 자기학습 스킬 + FTS5 회상&lt;/strong&gt;. &lt;a class="link" href="https://ice-ice-bear.github.io/ko/posts/2026-05-08-agent-os-layer-memory-skills/" target="_blank" rel="noopener"
 &gt;이전 글의 OS 레이어 논의&lt;/a&gt;에서 메모리/워크플로 슬롯이 어떻게 자리 잡는지 봤다면, 이번 글은 &lt;strong&gt;그 메모리 슬롯 내부에서 갈라지는 두 디자인 철학&lt;/strong&gt;을 본다.&lt;/p&gt;
&lt;pre class="mermaid" style="visibility:hidden"&gt;graph TD
 Task["에이전트 태스크"] --&gt; Decision{"메모리 디자인 선택"}
 Decision --&gt; Structured["구조화 — MemPalace"]
 Decision --&gt; Emergent["Emergent — Hermes Agent"]

 Structured --&gt; Wings["wings / rooms / drawers &amp;lt;br/&amp;gt; verbatim 저장"]
 Structured --&gt; KG["temporal knowledge graph &amp;lt;br/&amp;gt; SQLite + validity window"]
 Structured --&gt; MCP29["29개 MCP 툴 &amp;lt;br/&amp;gt; 명시적 인덱스 호출"]

 Emergent --&gt; Scratch["대화 + 노트 스크래치패드"]
 Emergent --&gt; Skills["자기 생성 스킬 &amp;lt;br/&amp;gt; 사용 중 self-improve"]
 Emergent --&gt; FTS["FTS5 세션 검색 &amp;lt;br/&amp;gt; + LLM 요약"]

 Wings --&gt; Retrieve["검색 시 wing 스코프 한정"]
 Scratch --&gt; Recall["LLM이 도구로 회상 트리거"]&lt;/pre&gt;&lt;h2 id="1-mempalace--구조화된-인덱스의-끝을-본다"&gt;1. MemPalace — 구조화된 인덱스의 끝을 본다
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/MemPalace/mempalace" target="_blank" rel="noopener"
 &gt;MemPalace/mempalace&lt;/a&gt;는 &lt;em&gt;&amp;ldquo;The best-benchmarked open-source AI memory system&amp;rdquo;&lt;/em&gt; 을 표방하는 2026-04-05 생성 MIT 프로젝트로, &lt;a class="link" href="https://github.com/MemPalace/mempalace/commits/main" target="_blank" rel="noopener"
 &gt;2026-05-11 푸시 시점&lt;/a&gt; 51,879 stars. 핵심 베팅은 한 줄로 — &lt;strong&gt;원문을 압축·요약 없이 그대로 저장하고, 의미 검색은 사전 구조로 좁혀라.&lt;/strong&gt;&lt;/p&gt;
&lt;h3 id="자리-구조"&gt;자리 구조
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;wings&lt;/strong&gt; — 사람·프로젝트 단위. 검색 시 스코프를 한정한다.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;rooms&lt;/strong&gt; — 토픽 단위. wing 안에서 다시 좁힌다.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;drawers&lt;/strong&gt; — 원문 본문이 들어가는 가장 작은 단위. &lt;strong&gt;요약/추출/패러프레이즈 없음.&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;knowledge graph&lt;/strong&gt; — 로컬 &lt;a class="link" href="https://www.sqlite.org/" target="_blank" rel="noopener"
 &gt;SQLite&lt;/a&gt;에 entity·relationship + validity window. 시간이 흐르며 fact가 더 이상 유효하지 않게 되는 걸 명시적으로 마크 가능.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;agent diaries&lt;/strong&gt; — 스페셜리스트 에이전트마다 자기 wing 안의 일기. 런타임에 &lt;a class="link" href="https://mempalaceofficial.com/concepts/agents.html" target="_blank" rel="noopener"
 &gt;&lt;code&gt;mempalace_list_agents&lt;/code&gt;&lt;/a&gt;로 발견 가능 → 시스템 프롬프트가 부풀지 않는다.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="벤치마크"&gt;벤치마크
&lt;/h3&gt;&lt;p&gt;&lt;a class="link" href="https://arxiv.org/abs/2410.10813" target="_blank" rel="noopener"
 &gt;LongMemEval&lt;/a&gt; 500 questions 기준:&lt;/p&gt;
&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;모드&lt;/th&gt;
 &lt;th&gt;R@5&lt;/th&gt;
 &lt;th&gt;LLM 필요&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;Raw 의미 검색 (휴리스틱·LLM 없음)&lt;/td&gt;
 &lt;td&gt;&lt;strong&gt;96.6%&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;없음&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;Hybrid v4, 450q held-out&lt;/td&gt;
 &lt;td&gt;&lt;strong&gt;98.4%&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;없음&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;Hybrid v4 + LLM rerank, 500q&lt;/td&gt;
 &lt;td&gt;≥99%&lt;/td&gt;
 &lt;td&gt;임의의 capable 모델&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;추가로 &lt;a class="link" href="https://arxiv.org/abs/2402.17753" target="_blank" rel="noopener"
 &gt;LoCoMo&lt;/a&gt; R@10 88.9% (hybrid v5, 1,986 questions), ConvoMem 250 items 평균 회상 92.9%, &lt;a class="link" href="https://aclanthology.org/2025.acl-long.0/" target="_blank" rel="noopener"
 &gt;MemBench&lt;/a&gt; (ACL 2025) 8,500 items R@5 80.3%. 같은 시기에 회자된 &lt;a class="link" href="https://github.com/rohitg00/agentmemory" target="_blank" rel="noopener"
 &gt;agentmemory&lt;/a&gt;가 보인 LongMemEval R@5 95.2%와 비교하면 raw 모드만으로 +1.4%p — &lt;strong&gt;임베딩 위 사전 구조화의 효과가 가장 크게 드러나는 영역이 retrieval recall&lt;/strong&gt;이라는 신호다.&lt;/p&gt;
&lt;h3 id="셋업"&gt;셋업
&lt;/h3&gt;&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;uv tool install mempalace
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;mempalace init ~/projects/myapp
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# 마이닝&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;mempalace mine ~/projects/myapp &lt;span class="c1"&gt;# 프로젝트 파일&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;mempalace mine ~/.claude/projects/ --mode convos &lt;span class="c1"&gt;# Claude Code 세션&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# 검색·로드&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;mempalace search &lt;span class="s2"&gt;&amp;#34;왜 GraphQL로 바꿨더라&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;mempalace wake-up
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;API 키 없음, 클라우드 호출 없음, ChromaDB 디폴트, &lt;a class="link" href="https://github.com/MemPalace/mempalace/blob/main/mempalace/backends/base.py" target="_blank" rel="noopener"
 &gt;&lt;code&gt;mempalace/backends/base.py&lt;/code&gt;&lt;/a&gt; 인터페이스를 따르는 다른 백엔드로 교체 가능. 29개 &lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;MCP&lt;/a&gt; 툴이 palace 읽기·쓰기, 그래프 연산, cross-wing 네비게이션, drawer 관리, 에이전트 다이어리를 커버.&lt;/p&gt;
&lt;h3 id="의미"&gt;의미
&lt;/h3&gt;&lt;p&gt;MemPalace의 베팅은 &lt;strong&gt;&amp;ldquo;메모리 품질 = 인덱스 품질&amp;rdquo;&lt;/strong&gt; 이다. 압축·요약은 손실을 만든다 → verbatim 보존 + retrieval 시 wing/room으로 스코프를 좁히면 LLM이 길어진 쓰레기 컨텍스트를 헤집을 필요가 없다. &lt;a class="link" href="https://mempalaceofficial.com/concepts/knowledge-graph.html" target="_blank" rel="noopener"
 &gt;knowledge graph&lt;/a&gt;의 validity window는 &lt;strong&gt;시간 흐름에 따른 사실 변동&lt;/strong&gt;을 LLM의 추론에 떠넘기지 않고 인덱스 레이어에서 명시한다는 점에서 특히 큰 차이다.&lt;/p&gt;
&lt;h2 id="2-hermes-agent--emergent-스크래치패드의-끝을-본다"&gt;2. Hermes Agent — emergent 스크래치패드의 끝을 본다
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/NousResearch/hermes-agent" target="_blank" rel="noopener"
 &gt;NousResearch/hermes-agent&lt;/a&gt;는 &lt;em&gt;&amp;ldquo;The agent that grows with you&amp;rdquo;&lt;/em&gt; 를 표방하는 &lt;a class="link" href="https://nousresearch.com" target="_blank" rel="noopener"
 &gt;Nous Research&lt;/a&gt;의 MIT 프로젝트로, &lt;a class="link" href="https://github.com/NousResearch/hermes-agent" target="_blank" rel="noopener"
 &gt;2025-07-22 생성&lt;/a&gt;, 2026-05-11 시점 142,575 stars — 같은 메모리 비교군에서 가장 큰 모집단이다. 베팅은 정반대 — &lt;strong&gt;메모리는 별도 인덱스가 아니라 에이전트가 자기 운영 중에 만들어내는 emergent 산출물&lt;/strong&gt;이다.&lt;/p&gt;
&lt;h3 id="메모리를-구성하는-네-가지-흐름"&gt;메모리를 구성하는 네 가지 흐름
&lt;/h3&gt;&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;agent-curated memory + periodic nudges&lt;/strong&gt; — 에이전트가 스스로 &amp;ldquo;이건 기억할 가치가 있다&amp;quot;고 판단해 메모리에 적는다. 주기적 nudge가 persistence를 강제.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;자기 생성 스킬&lt;/strong&gt; — 복잡한 태스크 이후 &lt;a class="link" href="https://agentskills.io" target="_blank" rel="noopener"
 &gt;Skills Hub&lt;/a&gt;에 등록 가능한 스킬을 자율적으로 만든다. 사용 중 self-improve. &lt;a class="link" href="https://agentskills.io" target="_blank" rel="noopener"
 &gt;agentskills.io&lt;/a&gt; 오픈 표준 호환.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;FTS5 세션 검색 + LLM 요약&lt;/strong&gt; — 과거 대화를 &lt;a class="link" href="https://www.sqlite.org/fts5.html" target="_blank" rel="noopener"
 &gt;SQLite FTS5&lt;/a&gt;로 full-text 검색 후 LLM 요약으로 cross-session 회상.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;사용자 모델링&lt;/strong&gt; — &lt;a class="link" href="https://github.com/plastic-labs/honcho" target="_blank" rel="noopener"
 &gt;plastic-labs/honcho&lt;/a&gt; dialectic user modeling으로 &amp;ldquo;당신이 누구인지&amp;quot;의 모델을 세션을 가로질러 깊게 쌓는다.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 id="어디서-실행되는가"&gt;어디서 실행되는가
&lt;/h3&gt;&lt;p&gt;&lt;a class="link" href="https://telegram.org/" target="_blank" rel="noopener"
 &gt;Telegram&lt;/a&gt; · &lt;a class="link" href="https://discord.com/" target="_blank" rel="noopener"
 &gt;Discord&lt;/a&gt; · &lt;a class="link" href="https://slack.com/" target="_blank" rel="noopener"
 &gt;Slack&lt;/a&gt; · &lt;a class="link" href="https://www.whatsapp.com/" target="_blank" rel="noopener"
 &gt;WhatsApp&lt;/a&gt; · &lt;a class="link" href="https://signal.org/" target="_blank" rel="noopener"
 &gt;Signal&lt;/a&gt; · Email · CLI — 게이트웨이 한 프로세스로 다 받는다. 일곱 개 터미널 백엔드 — 로컬, &lt;a class="link" href="https://www.docker.com/" target="_blank" rel="noopener"
 &gt;Docker&lt;/a&gt;, SSH, &lt;a class="link" href="https://sylabs.io/singularity/" target="_blank" rel="noopener"
 &gt;Singularity&lt;/a&gt;, &lt;a class="link" href="https://modal.com/" target="_blank" rel="noopener"
 &gt;Modal&lt;/a&gt;, &lt;a class="link" href="https://www.daytona.io/" target="_blank" rel="noopener"
 &gt;Daytona&lt;/a&gt;, &lt;a class="link" href="https://vercel.com/docs/vercel-sandbox" target="_blank" rel="noopener"
 &gt;Vercel Sandbox&lt;/a&gt; — 중 Daytona·Modal은 idle 시 hibernate, 깨어날 때만 비용. 노트북에 묶이지 않은 에이전트.&lt;/p&gt;
&lt;h3 id="모델-자유"&gt;모델 자유
&lt;/h3&gt;&lt;p&gt;&lt;code&gt;hermes model&lt;/code&gt; 한 줄로 &lt;a class="link" href="https://portal.nousresearch.com" target="_blank" rel="noopener"
 &gt;Nous Portal&lt;/a&gt;, &lt;a class="link" href="https://openrouter.ai" target="_blank" rel="noopener"
 &gt;OpenRouter&lt;/a&gt;, &lt;a class="link" href="https://build.nvidia.com" target="_blank" rel="noopener"
 &gt;NVIDIA NIM&lt;/a&gt;, &lt;a class="link" href="https://platform.xiaomimimo.com" target="_blank" rel="noopener"
 &gt;Xiaomi MiMo&lt;/a&gt;, &lt;a class="link" href="https://z.ai" target="_blank" rel="noopener"
 &gt;z.ai/GLM&lt;/a&gt;, &lt;a class="link" href="https://platform.moonshot.ai" target="_blank" rel="noopener"
 &gt;Kimi/Moonshot&lt;/a&gt;, &lt;a class="link" href="https://www.minimax.io" target="_blank" rel="noopener"
 &gt;MiniMax&lt;/a&gt;, &lt;a class="link" href="https://huggingface.co" target="_blank" rel="noopener"
 &gt;Hugging Face&lt;/a&gt;, OpenAI, 자체 엔드포인트 사이 전환. 메모리는 모델과 분리된 emergent 산출물이므로 모델을 갈아치워도 그대로 따라간다.&lt;/p&gt;
&lt;h3 id="의미-1"&gt;의미
&lt;/h3&gt;&lt;p&gt;Hermes의 베팅은 &lt;strong&gt;&amp;ldquo;메모리는 호출되어야 한다 — LLM이 직접&amp;rdquo;&lt;/strong&gt; 이다. 사전 인덱스가 retrieval 정확도를 책임지는 게 아니라, LLM이 자기 turn 중에 &amp;ldquo;지금 과거의 무엇이 필요한가&amp;quot;를 결정해 &lt;a class="link" href="https://www.sqlite.org/fts5.html" target="_blank" rel="noopener"
 &gt;FTS5 검색&lt;/a&gt; 도구를 호출하고, 요약을 만들어 자기 컨텍스트에 끼워 넣는다. 스킬은 작성 시점 한 번이 아니라 &lt;strong&gt;사용하면서 스스로 고쳐 쓰는&lt;/strong&gt; 살아 있는 절차 메모리.&lt;/p&gt;
&lt;h2 id="3-정면-비교"&gt;3. 정면 비교
&lt;/h2&gt;&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;항목&lt;/th&gt;
 &lt;th&gt;MemPalace&lt;/th&gt;
 &lt;th&gt;Hermes Agent&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;만든 곳&lt;/td&gt;
 &lt;td&gt;&lt;a class="link" href="https://github.com/MemPalace" target="_blank" rel="noopener"
 &gt;MemPalace&lt;/a&gt;&lt;/td&gt;
 &lt;td&gt;&lt;a class="link" href="https://nousresearch.com" target="_blank" rel="noopener"
 &gt;Nous Research&lt;/a&gt;&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;라이선스&lt;/td&gt;
 &lt;td&gt;MIT&lt;/td&gt;
 &lt;td&gt;MIT&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;생성&lt;/td&gt;
 &lt;td&gt;2026-04-05&lt;/td&gt;
 &lt;td&gt;2025-07-22&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;5/11 stars&lt;/td&gt;
 &lt;td&gt;51,879&lt;/td&gt;
 &lt;td&gt;142,575&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;메모리 모델&lt;/td&gt;
 &lt;td&gt;구조화 인덱스 + 지식 그래프&lt;/td&gt;
 &lt;td&gt;스크래치패드 + emergent 스킬 + FTS&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;저장 방식&lt;/td&gt;
 &lt;td&gt;verbatim drawer&lt;/td&gt;
 &lt;td&gt;대화·노트·스킬, 필요 시 요약&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;시간 처리&lt;/td&gt;
 &lt;td&gt;그래프 validity window&lt;/td&gt;
 &lt;td&gt;LLM이 요약하며 재구성&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;Retrieval 책임&lt;/td&gt;
 &lt;td&gt;인덱스 (R@5 96.6% raw)&lt;/td&gt;
 &lt;td&gt;LLM이 도구로 호출&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;모델 종속&lt;/td&gt;
 &lt;td&gt;모델 무관 (raw는 LLM 0회)&lt;/td&gt;
 &lt;td&gt;모델 무관 (10+ 프로바이더)&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;인터페이스&lt;/td&gt;
 &lt;td&gt;29개 MCP 툴 + CLI&lt;/td&gt;
 &lt;td&gt;TUI + 6개 메시징 게이트웨이&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;단일 실행 단위&lt;/td&gt;
 &lt;td&gt;&lt;code&gt;mempalace search&lt;/code&gt;&lt;/td&gt;
 &lt;td&gt;&lt;code&gt;hermes&lt;/code&gt; 세션&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id="4-어떤-태스크에-어느-쪽이-스케일하는가"&gt;4. 어떤 태스크에 어느 쪽이 스케일하는가
&lt;/h2&gt;&lt;pre class="mermaid" style="visibility:hidden"&gt;flowchart LR
 A["태스크 특성"] --&gt; B{"retrieval recall이 최우선?"}
 B --&gt;|Yes| C["구조화 인덱스 &amp;lt;br/&amp;gt; MemPalace"]
 B --&gt;|No| D{"세션이 길고 다중 채널?"}
 D --&gt;|Yes| E["스크래치패드 + 자기학습 &amp;lt;br/&amp;gt; Hermes Agent"]
 D --&gt;|No| F["둘 다 과잉 — &amp;lt;br/&amp;gt; long context로 충분"]
 C --&gt; G["사실 정확도, 시간 변동, &amp;lt;br/&amp;gt; 다중 에이전트 공유"]
 E --&gt; H["페르소나 학습, 절차 메모리, &amp;lt;br/&amp;gt; 메시징 채널 연속성"]&lt;/pre&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;사실 회상이 KPI인 곳&lt;/strong&gt; — 고객 히스토리, 코드베이스 결정 기록, &amp;ldquo;X를 언제 왜 바꿨더라&amp;rdquo; 같은 질문이 중요하면 &lt;strong&gt;MemPalace가 더 맞는다.&lt;/strong&gt; R@5 96.6%는 다른 누구도 raw 모드로 내지 못한 숫자다.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;운영이 길어지고 모달리티가 다양한 곳&lt;/strong&gt; — Telegram에서 시작해 Slack에서 이어지고 cron으로 매일 새벽 보고서를 받는 워크플로라면 &lt;strong&gt;Hermes의 메시징·스케줄·스킬 쪽이 더 맞는다.&lt;/strong&gt; 메모리 정확도는 적당히 양보하고 운영 연속성을 사는 트레이드.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;단일 세션 단발성 태스크&lt;/strong&gt; — 둘 다 과잉이다. Claude나 GPT의 현재 컨텍스트 윈도(수십만~100만 토큰)면 충분히 처리된다. 이게 핵심 — &lt;strong&gt;현재 컨텍스트 윈도가 1인 1세션 수준에서는 둘 다 필요 없다.&lt;/strong&gt; 매기는 가격은 &lt;em&gt;에이전트 팀 규모&lt;/em&gt;에서 나온다.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="에이전트-팀-스케일에서-갈리는-지점"&gt;에이전트 팀 스케일에서 갈리는 지점
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;N명의 스페셜리스트가 같은 사실 풀을 공유해야 한다 → MemPalace의 wings + cross-wing 네비게이션이 직접 답이다.&lt;/li&gt;
&lt;li&gt;N개 채널을 가로질러 같은 페르소나가 유지돼야 한다 → Hermes의 &lt;a class="link" href="https://github.com/plastic-labs/honcho" target="_blank" rel="noopener"
 &gt;Honcho&lt;/a&gt; dialectic 모델링이 직접 답이다.&lt;/li&gt;
&lt;li&gt;N일 동안 자기 절차를 진화시켜야 한다 → Hermes의 self-improving 스킬이 직접 답이다.&lt;/li&gt;
&lt;li&gt;N년 동안 사실의 유효 기간이 바뀐다 → MemPalace의 temporal knowledge graph가 직접 답이다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;현장 한 줄 평으로 정리하면, &lt;strong&gt;MemPalace는 &amp;ldquo;정확도 인프라&amp;quot;이고 Hermes는 &amp;ldquo;운영 인프라&amp;rdquo;&lt;/strong&gt; 다. 같은 메모리라는 단어를 쓰지만 책임 영역이 거의 겹치지 않는다.&lt;/p&gt;
&lt;h2 id="인사이트"&gt;인사이트
&lt;/h2&gt;&lt;p&gt;같은 시기 51K와 142K stars를 동시에 모은 두 프로젝트가 메모리라는 단어를 정반대 방향으로 정의했다는 점이 이 디지스트의 핵심이다. MemPalace는 &lt;strong&gt;메모리를 검색 가능한 사실 인덱스&lt;/strong&gt;로 보고, retrieval 정확도(96.6% raw R@5)와 시간 그래프(validity window)에 디자인 예산을 다 썼다. Hermes는 &lt;strong&gt;메모리를 LLM이 호출하는 운영 흐름&lt;/strong&gt;으로 보고, 스크래치패드·자기 진화 스킬·다중 채널 연속성에 같은 예산을 썼다. 둘 다 모델 종속을 의도적으로 끊은 것까지는 동일한 방향이지만, 메모리의 &amp;ldquo;어디까지가 인덱스이고 어디부터가 에이전트인가&amp;rdquo; 라는 경계선이 정반대다. &lt;a class="link" href="https://ice-ice-bear.github.io/ko/posts/2026-05-08-agent-os-layer-memory-skills/" target="_blank" rel="noopener"
 &gt;이전 글&lt;/a&gt;이 메모리/워크플로 두 슬롯이 OS 레이어로 모이는 풍경이었다면, 이번 흐름은 &lt;strong&gt;메모리 슬롯 안에서 다시 인덱스파와 스크래치패드파로 갈라지는 두 번째 분기&lt;/strong&gt;다. 현재 컨텍스트 윈도가 단일 세션을 거의 다 흡수해버리는 시점에서 보면 둘 중 누구도 시급해 보이지 않지만, 에이전트가 &lt;em&gt;팀&lt;/em&gt; 단위로 운영되기 시작하면 두 디자인 차이는 곧장 비용·정확도·운영 안정성으로 환산된다. 다음 분기 흥미로운 질문은 둘 — &lt;strong&gt;인덱스 진영이 emergent 스크래치패드를 인덱스에 흡수할지, 스크래치패드 진영이 명시적 그래프를 자기 도구로 끌어들일지&lt;/strong&gt; 다. 한쪽이 다른 쪽을 흡수하는 방향으로 수렴할 가능성이 더 높아 보인다.&lt;/p&gt;
&lt;h2 id="참고"&gt;참고
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;핵심 리포지토리&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/MemPalace/mempalace" target="_blank" rel="noopener"
 &gt;MemPalace/mempalace&lt;/a&gt; · 공식 사이트 &lt;a class="link" href="https://mempalaceofficial.com" target="_blank" rel="noopener"
 &gt;mempalaceofficial.com&lt;/a&gt; · &lt;a class="link" href="https://mempalaceofficial.com/concepts/the-palace.html" target="_blank" rel="noopener"
 &gt;palace concepts&lt;/a&gt; · &lt;a class="link" href="https://mempalaceofficial.com/concepts/knowledge-graph.html" target="_blank" rel="noopener"
 &gt;knowledge graph&lt;/a&gt; · &lt;a class="link" href="https://mempalaceofficial.com/reference/mcp-tools.html" target="_blank" rel="noopener"
 &gt;MCP 툴 레퍼런스&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/NousResearch/hermes-agent" target="_blank" rel="noopener"
 &gt;NousResearch/hermes-agent&lt;/a&gt; · 문서 &lt;a class="link" href="https://hermes-agent.nousresearch.com/docs/" target="_blank" rel="noopener"
 &gt;hermes-agent.nousresearch.com/docs&lt;/a&gt; · &lt;a class="link" href="https://hermes-agent.nousresearch.com/docs/user-guide/features/memory" target="_blank" rel="noopener"
 &gt;메모리 가이드&lt;/a&gt; · &lt;a class="link" href="https://hermes-agent.nousresearch.com/docs/user-guide/features/skills" target="_blank" rel="noopener"
 &gt;스킬 시스템&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;관련 메모리 도구 / 비교군&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/rohitg00/agentmemory" target="_blank" rel="noopener"
 &gt;rohitg00/agentmemory&lt;/a&gt; — 같은 LongMemEval 평가군의 직전 디자인&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/plastic-labs/honcho" target="_blank" rel="noopener"
 &gt;plastic-labs/honcho&lt;/a&gt; — Hermes가 쓰는 dialectic 사용자 모델링&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://agentskills.io" target="_blank" rel="noopener"
 &gt;agentskills.io&lt;/a&gt; — Hermes·OpenClaw가 공통으로 따르는 오픈 스킬 표준&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;프로토콜·런타임&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;Model Context Protocol (MCP)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://www.sqlite.org/fts5.html" target="_blank" rel="noopener"
 &gt;SQLite FTS5&lt;/a&gt; — Hermes의 세션 검색 백엔드&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://www.trychroma.com/" target="_blank" rel="noopener"
 &gt;ChromaDB&lt;/a&gt; — MemPalace 디폴트 벡터 백엔드&lt;/li&gt;
&lt;li&gt;런타임: &lt;a class="link" href="https://modal.com/" target="_blank" rel="noopener"
 &gt;Modal&lt;/a&gt; · &lt;a class="link" href="https://www.daytona.io/" target="_blank" rel="noopener"
 &gt;Daytona&lt;/a&gt; · &lt;a class="link" href="https://vercel.com/docs/vercel-sandbox" target="_blank" rel="noopener"
 &gt;Vercel Sandbox&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;벤치마크·논문&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2410.10813" target="_blank" rel="noopener"
 &gt;LongMemEval (arXiv:2410.10813, ICLR 2025)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2402.17753" target="_blank" rel="noopener"
 &gt;LoCoMo (arXiv:2402.17753)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://aclanthology.org/2025.acl-long.0/" target="_blank" rel="noopener"
 &gt;MemBench (ACL 2025)&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>