<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Agent Memory on ICE-ICE-BEAR-BLOG</title><link>https://ice-ice-bear.github.io/ko/tags/agent-memory/</link><description>Recent content in Agent Memory on ICE-ICE-BEAR-BLOG</description><generator>Hugo -- gohugo.io</generator><language>ko</language><lastBuildDate>Fri, 08 May 2026 00:00:00 +0900</lastBuildDate><atom:link href="https://ice-ice-bear.github.io/ko/tags/agent-memory/index.xml" rel="self" type="application/rss+xml"/><item><title>AI 코딩 에이전트의 OS 레이어 — agentmemory와 agent-skills 같은 날 동시 등장</title><link>https://ice-ice-bear.github.io/ko/posts/2026-05-08-agent-os-layer-memory-skills/</link><pubDate>Fri, 08 May 2026 00:00:00 +0900</pubDate><guid>https://ice-ice-bear.github.io/ko/posts/2026-05-08-agent-os-layer-memory-skills/</guid><description>&lt;img src="https://ice-ice-bear.github.io/" alt="Featured image of post AI 코딩 에이전트의 OS 레이어 — agentmemory와 agent-skills 같은 날 동시 등장" /&gt;&lt;h2 id="개요"&gt;개요
&lt;/h2&gt;&lt;p&gt;같은 시각 30초 간격으로 등장한 두 GitHub 링크. 둘 다 &amp;ldquo;AI 코딩 에이전트의 ergonomic 결함&amp;quot;을 풀려는 도구지만, &lt;strong&gt;노리는 결함이 다르다.&lt;/strong&gt; &lt;a class="link" href="https://github.com/rohitg00/agentmemory" target="_blank" rel="noopener"
 &gt;rohitg00/agentmemory&lt;/a&gt;는 세션 간 메모리 인프라를, &lt;a class="link" href="https://github.com/addyosmani/agent-skills" target="_blank" rel="noopener"
 &gt;addyosmani/agent-skills&lt;/a&gt;는 시니어 엔지니어의 워크플로 강제력을 푼다. 묶어서 보면 에이전트 시대의 OS 레이어가 모양을 갖추고 있다.&lt;/p&gt;
&lt;pre class="mermaid" style="visibility:hidden"&gt;graph TD
 Agent["AI 코딩 에이전트"] --&gt; Memory["메모리/상태 레이어"]
 Agent --&gt; Skills["워크플로/룰 레이어"]
 Agent --&gt; Model["모델 레이어"]
 Agent --&gt; UI["UI 레이어"]

 Memory --&gt; AM["agentmemory &amp;lt;br/&amp;gt; MCP + REST"]
 Skills --&gt; AS["agent-skills &amp;lt;br/&amp;gt; Markdown 스킬 번들"]
 Model --&gt; Claude["Claude / GPT / Gemini"]
 UI --&gt; CC["Claude Code / Cursor / Cline"]&lt;/pre&gt;&lt;h2 id="1-agentmemory--영속-메모리-mcp로-모든-에이전트와-공유"&gt;1. agentmemory — 영속 메모리, MCP로 모든 에이전트와 공유
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/rohitg00/agentmemory" target="_blank" rel="noopener"
 &gt;rohitg00/agentmemory&lt;/a&gt;는 &lt;em&gt;&amp;quot;#1 Persistent memory for AI coding agents based on real-world benchmarks&amp;rdquo;&lt;/em&gt; 를 표방한다. 2026-02-25 생성, 약 2,400 stars, Apache 2.0. 홈페이지는 &lt;a class="link" href="https://agent-memory.dev" target="_blank" rel="noopener"
 &gt;agent-memory.dev&lt;/a&gt;.&lt;/p&gt;
&lt;h3 id="풀려는-문제"&gt;풀려는 문제
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;매 세션마다 아키텍처를 다시 설명해야 함&lt;/li&gt;
&lt;li&gt;같은 버그를 다시 발견함&lt;/li&gt;
&lt;li&gt;같은 선호(라이브러리 선택, 코드 스타일)를 다시 가르쳐야 함&lt;/li&gt;
&lt;li&gt;&lt;code&gt;CLAUDE.md&lt;/code&gt;나 &lt;code&gt;.cursorrules&lt;/code&gt; 같은 빌트인 메모리는 &lt;strong&gt;200줄 cap에 stale&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="작동-방식"&gt;작동 방식
&lt;/h3&gt;&lt;p&gt;에이전트가 한 일을 silently capture → 압축 → 검색 가능한 메모리로 저장 → 다음 세션 시작 시 적절한 컨텍스트만 inject. 핵심은 단일 &lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;MCP&lt;/a&gt; 서버 1개만 띄우면 16개 이상 에이전트가 같은 메모리를 공유한다는 것.&lt;/p&gt;
&lt;p&gt;지원되는 클라이언트:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://www.anthropic.com/claude-code" target="_blank" rel="noopener"
 &gt;Claude Code&lt;/a&gt; · &lt;a class="link" href="https://cursor.com/" target="_blank" rel="noopener"
 &gt;Cursor&lt;/a&gt; · &lt;a class="link" href="https://github.com/google-gemini/gemini-cli" target="_blank" rel="noopener"
 &gt;Gemini CLI&lt;/a&gt; · &lt;a class="link" href="https://openai.com/codex/" target="_blank" rel="noopener"
 &gt;Codex CLI&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://cline.bot/" target="_blank" rel="noopener"
 &gt;Cline&lt;/a&gt; · &lt;a class="link" href="https://block.github.io/goose/" target="_blank" rel="noopener"
 &gt;Goose&lt;/a&gt; · &lt;a class="link" href="https://windsurf.com/" target="_blank" rel="noopener"
 &gt;Windsurf&lt;/a&gt; · &lt;a class="link" href="https://roocode.com/" target="_blank" rel="noopener"
 &gt;Roo Code&lt;/a&gt; · &lt;a class="link" href="https://opencode.ai/" target="_blank" rel="noopener"
 &gt;OpenCode&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;MCP가 안 되는 에이전트도 REST API로 붙음 (104개 endpoint)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;임베딩은 로컬 &lt;a class="link" href="https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2" target="_blank" rel="noopener"
 &gt;&lt;code&gt;all-MiniLM-L6-v2&lt;/code&gt;&lt;/a&gt;를 사용 → API 키 필요 없음, 무료.&lt;/p&gt;
&lt;h3 id="벤치마크--longmemeval-s"&gt;벤치마크 — LongMemEval-S
&lt;/h3&gt;&lt;p&gt;&lt;a class="link" href="https://arxiv.org/abs/2410.10813" target="_blank" rel="noopener"
 &gt;LongMemEval&lt;/a&gt; (ICLR 2025, 500 questions) 결과:&lt;/p&gt;
&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;지표&lt;/th&gt;
 &lt;th&gt;agentmemory&lt;/th&gt;
 &lt;th&gt;BM25 fallback&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;R@5&lt;/td&gt;
 &lt;td&gt;95.2%&lt;/td&gt;
 &lt;td&gt;86.2%&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;R@10&lt;/td&gt;
 &lt;td&gt;98.6%&lt;/td&gt;
 &lt;td&gt;—&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;MRR&lt;/td&gt;
 &lt;td&gt;88.2%&lt;/td&gt;
 &lt;td&gt;—&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;임베딩 + 하이브리드가 단순 키워드 BM25보다 R@5 기준 &lt;strong&gt;9%p 높다.&lt;/strong&gt;&lt;/p&gt;
&lt;h3 id="토큰-절감"&gt;토큰 절감
&lt;/h3&gt;&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;방식&lt;/th&gt;
 &lt;th&gt;연간 토큰&lt;/th&gt;
 &lt;th&gt;연간 비용&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;풀 컨텍스트 paste&lt;/td&gt;
 &lt;td&gt;19.5M+&lt;/td&gt;
 &lt;td&gt;컨텍스트 window 초과&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;LLM-summarized&lt;/td&gt;
 &lt;td&gt;~650K&lt;/td&gt;
 &lt;td&gt;~$500&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;agentmemory&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;&lt;strong&gt;~170K&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;&lt;strong&gt;~$10&lt;/strong&gt;&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;agentmemory + local embed&lt;/td&gt;
 &lt;td&gt;~170K&lt;/td&gt;
 &lt;td&gt;&lt;strong&gt;$0&lt;/strong&gt;&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;h3 id="시작"&gt;시작
&lt;/h3&gt;&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;npx @agentmemory/agentmemory
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;h3 id="의미"&gt;의미
&lt;/h3&gt;&lt;p&gt;이 도구의 핵심 베팅은 한 줄로 정리된다 — &lt;strong&gt;&amp;ldquo;메모리는 에이전트가 아니라 인프라 레이어에 있어야 한다.&amp;rdquo;&lt;/strong&gt; 에이전트별로 메모리를 짜는 대신 MCP 서버 1개로 모든 에이전트가 공유하면, Claude Code 세션에서 학습한 게 다음 Cursor 세션에 그대로 흘러간다. 50일 전쯤 viral한 GitHub gist(1,050 stars)에서 시작 → 그 디자인 문서를 코드로 구현한 형태. &lt;a class="link" href="https://github.com/karpathy" target="_blank" rel="noopener"
 &gt;Karpathy의 LLM Wiki 패턴&lt;/a&gt; + confidence scoring + lifecycle + knowledge graph + hybrid search.&lt;/p&gt;
&lt;h2 id="2-agent-skills--시니어-엔지니어의-워크플로를-스킬로-패키징"&gt;2. agent-skills — 시니어 엔지니어의 워크플로를 스킬로 패키징
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/addyosmani/agent-skills" target="_blank" rel="noopener"
 &gt;addyosmani/agent-skills&lt;/a&gt;는 &lt;em&gt;&amp;ldquo;Production-grade engineering skills for AI coding agents.&amp;rdquo;&lt;/em&gt; 를 표방한다. 2026-02-15 생성, 약 33,500 stars, MIT. 동일 시점 비교에서 agentmemory보다 14배 많은 stars — 워크플로 표준 후보로 가장 빠르게 모이는 곳이다.&lt;/p&gt;
&lt;h3 id="풀려는-문제-1"&gt;풀려는 문제
&lt;/h3&gt;&lt;p&gt;&amp;ldquo;에이전트가 코드를 짜기는 짜는데, 시니어가 한 것 같지 않다.&amp;rdquo;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;스펙 없이 바로 코드 짠다&lt;/li&gt;
&lt;li&gt;테스트를 안 짠다&lt;/li&gt;
&lt;li&gt;보안 고려가 없다&lt;/li&gt;
&lt;li&gt;큰 PR을 한 번에 던진다&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="6단계-라이프사이클"&gt;6단계 라이프사이클
&lt;/h3&gt;&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-fallback" data-lang="fallback"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;DEFINE → PLAN → BUILD → VERIFY → REVIEW → SHIP
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;/spec /plan /build /test /review /ship
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;각 슬래시 커맨드 = 라이프사이클 한 단계 → 필요한 스킬을 자동 활성화.&lt;/p&gt;
&lt;h3 id="20개-스킬-분류"&gt;20개 스킬 분류
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Define&lt;/strong&gt;: idea-refine, spec-driven-development&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Plan&lt;/strong&gt;: planning-and-task-breakdown&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Build&lt;/strong&gt;: incremental-implementation, test-driven-development, context-engineering, source-driven-development, frontend-ui-engineering, api-and-interface-design&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Verify&lt;/strong&gt;: browser-testing-with-devtools, debugging-and-error-recovery&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Review&lt;/strong&gt;: code-review-and-quality, code-simplification, security-and-hardening, performance-optimization&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Ship&lt;/strong&gt;: git-workflow-and-versioning, ci-cd-and-automation, deprecation-and-migration, documentation-and-adrs, shipping-and-launch&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="어디서-동작하나"&gt;어디서 동작하나
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://www.anthropic.com/claude-code" target="_blank" rel="noopener"
 &gt;Claude Code&lt;/a&gt; (marketplace 설치, 권장): &lt;code&gt;/plugin marketplace add addyosmani/agent-skills&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://cursor.com/" target="_blank" rel="noopener"
 &gt;Cursor&lt;/a&gt;: &lt;code&gt;.cursor/rules/&lt;/code&gt;에 SKILL.md 복사&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/google-gemini/gemini-cli" target="_blank" rel="noopener"
 &gt;Gemini CLI&lt;/a&gt; · &lt;a class="link" href="https://windsurf.com/" target="_blank" rel="noopener"
 &gt;Windsurf&lt;/a&gt; · &lt;a class="link" href="https://opencode.ai/" target="_blank" rel="noopener"
 &gt;OpenCode&lt;/a&gt; · &lt;a class="link" href="https://github.com/features/copilot" target="_blank" rel="noopener"
 &gt;GitHub Copilot&lt;/a&gt; · &lt;a class="link" href="https://kiro.dev/" target="_blank" rel="noopener"
 &gt;Kiro IDE&lt;/a&gt; · &lt;a class="link" href="https://openai.com/codex/" target="_blank" rel="noopener"
 &gt;Codex&lt;/a&gt; — &lt;strong&gt;마크다운만 읽으면 다 동작&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="agent-personas"&gt;Agent Personas
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;&lt;code&gt;code-reviewer&lt;/code&gt; — Senior Staff Engineer 관점, &amp;ldquo;would a staff engineer approve this?&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;test-engineer&lt;/code&gt; — QA, Prove-It 패턴&lt;/li&gt;
&lt;li&gt;&lt;code&gt;security-auditor&lt;/code&gt; — &lt;a class="link" href="https://owasp.org/" target="_blank" rel="noopener"
 &gt;OWASP&lt;/a&gt;, threat modeling&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="의미-1"&gt;의미
&lt;/h3&gt;&lt;p&gt;agent-skills의 베팅은 &lt;strong&gt;&amp;ldquo;에이전트는 LLM 무게가 아니라 워크플로의 강제력에서 차이가 난다.&amp;rdquo;&lt;/strong&gt; TDD를 &amp;ldquo;할 수 있다&amp;rdquo; 가 아니라 &amp;ldquo;Red-Green-Refactor를 안 하면 코드가 안 나간다&amp;rdquo; 같은 강제 흐름으로 만든다. 코드 리뷰도 5축 review, 100줄 단위 size, Nit/Optional/FYI severity 라벨 같은 구체 룰. Markdown만으로 풀어서 &lt;strong&gt;에이전트 종속성 zero&lt;/strong&gt; — Claude/Cursor/Gemini 다 같은 스킬을 쓸 수 있다. 33K 스타가 말해주듯 현재 &lt;strong&gt;에이전트 워크플로 표준에 가장 가까운 후보&lt;/strong&gt;다.&lt;/p&gt;
&lt;h2 id="3-두-도구-비교"&gt;3. 두 도구 비교
&lt;/h2&gt;&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;항목&lt;/th&gt;
 &lt;th&gt;agentmemory&lt;/th&gt;
 &lt;th&gt;agent-skills&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;누가&lt;/td&gt;
 &lt;td&gt;rohitg00&lt;/td&gt;
 &lt;td&gt;addyosmani&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;무엇&lt;/td&gt;
 &lt;td&gt;TypeScript 라이브러리 + MCP 서버&lt;/td&gt;
 &lt;td&gt;Markdown 스킬 번들&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;라이선스&lt;/td&gt;
 &lt;td&gt;Apache 2.0&lt;/td&gt;
 &lt;td&gt;MIT&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;Stars (2026-05)&lt;/td&gt;
 &lt;td&gt;~2,400&lt;/td&gt;
 &lt;td&gt;~33,500&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;생성&lt;/td&gt;
 &lt;td&gt;2026-02-25&lt;/td&gt;
 &lt;td&gt;2026-02-15&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;도메인&lt;/td&gt;
 &lt;td&gt;메모리/상태 인프라&lt;/td&gt;
 &lt;td&gt;엔지니어링 워크플로&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;종속성 끊는 방식&lt;/td&gt;
 &lt;td&gt;MCP 표준&lt;/td&gt;
 &lt;td&gt;Markdown 표준&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id="4-묶어서-본-의미--에이전트-시대의-os-레이어"&gt;4. 묶어서 본 의미 — 에이전트 시대의 OS 레이어
&lt;/h2&gt;&lt;pre class="mermaid" style="visibility:hidden"&gt;flowchart LR
 M["메모리/상태"] --&gt; AM["agentmemory"]
 W["워크플로/룰"] --&gt; AS["agent-skills"]
 Mo["모델"] --&gt; LLM["Claude / GPT / Gemini"]
 UI["UI"] --&gt; Tools["Claude Code / Cursor / Cline"]&lt;/pre&gt;&lt;p&gt;3-4년 전 &amp;ldquo;어떤 IDE 쓰지?&amp;rdquo; 가 결정 포인트였다면, 이제는 &lt;strong&gt;&amp;ldquo;어떤 메모리 + 스킬 셋업?&amp;rdquo;&lt;/strong&gt; 이 결정 포인트가 되고 있다. 둘 다 모델 종속성을 의도적으로 끊어두고 (&lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;MCP&lt;/a&gt;와 Markdown), &lt;strong&gt;모델은 갈아치울 수 있어도 메모리/스킬은 누적되도록&lt;/strong&gt; 설계한 게 공통점이다.&lt;/p&gt;
&lt;h2 id="인사이트"&gt;인사이트
&lt;/h2&gt;&lt;p&gt;같은 시각 같은 사람이 30초 간격으로 등장시킨 두 링크가 정확히 에이전트 OS 레이어의 다른 두 슬롯을 메우고 있다는 점이 이 디지스트의 핵심이다. agentmemory는 &lt;strong&gt;상태&lt;/strong&gt;를, agent-skills는 &lt;strong&gt;프로세스&lt;/strong&gt;를 인프라 레이어로 끌어내려 모델 위에 올라가는 공통 부품으로 만들었다. 두 도구가 모델 종속성을 의도적으로 끊는 방식 — MCP 서버 하나, Markdown 한 더미 — 도 같은 방향이다. 모델은 갈아치워도 메모리와 스킬은 누적된다는 베팅. 33K vs 2.4K stars 차이는 시점 차가 아니라 워크플로 표준 후보가 메모리 인프라보다 한발 앞서 모이고 있다는 신호로 읽힌다. &lt;strong&gt;다음 분기 흥미로운 질문은 두 가지&lt;/strong&gt; — 메모리 표준이 MCP 위에서 단일화될지, 그리고 agent-skills 같은 스킬 번들이 IDE 마켓플레이스의 새로운 SaaS 카테고리가 될지. 결정 포인트가 IDE 선택에서 메모리·스킬 셋업으로 옮겨가는 흐름은 이미 시작됐다.&lt;/p&gt;
&lt;h2 id="참고"&gt;참고
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;핵심 리포지토리&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/rohitg00/agentmemory" target="_blank" rel="noopener"
 &gt;rohitg00/agentmemory&lt;/a&gt; · 홈페이지 &lt;a class="link" href="https://agent-memory.dev" target="_blank" rel="noopener"
 &gt;agent-memory.dev&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/addyosmani/agent-skills" target="_blank" rel="noopener"
 &gt;addyosmani/agent-skills&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;관련 에이전트 / 클라이언트&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://www.anthropic.com/claude-code" target="_blank" rel="noopener"
 &gt;Claude Code&lt;/a&gt; · &lt;a class="link" href="https://cursor.com/" target="_blank" rel="noopener"
 &gt;Cursor&lt;/a&gt; · &lt;a class="link" href="https://cline.bot/" target="_blank" rel="noopener"
 &gt;Cline&lt;/a&gt; · &lt;a class="link" href="https://windsurf.com/" target="_blank" rel="noopener"
 &gt;Windsurf&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/google-gemini/gemini-cli" target="_blank" rel="noopener"
 &gt;Gemini CLI&lt;/a&gt; · &lt;a class="link" href="https://openai.com/codex/" target="_blank" rel="noopener"
 &gt;Codex&lt;/a&gt; · &lt;a class="link" href="https://opencode.ai/" target="_blank" rel="noopener"
 &gt;OpenCode&lt;/a&gt; · &lt;a class="link" href="https://block.github.io/goose/" target="_blank" rel="noopener"
 &gt;Goose&lt;/a&gt; · &lt;a class="link" href="https://roocode.com/" target="_blank" rel="noopener"
 &gt;Roo Code&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/features/copilot" target="_blank" rel="noopener"
 &gt;GitHub Copilot&lt;/a&gt; · &lt;a class="link" href="https://kiro.dev/" target="_blank" rel="noopener"
 &gt;Kiro IDE&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;프로토콜과 표준&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;Model Context Protocol (MCP)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://owasp.org/" target="_blank" rel="noopener"
 &gt;OWASP&lt;/a&gt; — security-auditor 페르소나의 기준&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;벤치마크 / 임베딩&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;논문: &lt;a class="link" href="https://arxiv.org/abs/2410.10813" target="_blank" rel="noopener"
 &gt;LongMemEval (arXiv:2410.10813, ICLR 2025)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2" target="_blank" rel="noopener"
 &gt;&lt;code&gt;sentence-transformers/all-MiniLM-L6-v2&lt;/code&gt;&lt;/a&gt; — agentmemory의 로컬 임베딩 모델&lt;/li&gt;
&lt;/ul&gt;</description></item><item><title>이번 주 arxiv 논문 3편 디지스트 — 멀티에이전트 토론, MIA, 후설 현상학</title><link>https://ice-ice-bear.github.io/ko/posts/2026-05-06-arxiv-papers-pick-multiagent-debate-mia-husserl/</link><pubDate>Wed, 06 May 2026 00:00:00 +0900</pubDate><guid>https://ice-ice-bear.github.io/ko/posts/2026-05-06-arxiv-papers-pick-multiagent-debate-mia-husserl/</guid><description>&lt;img src="https://ice-ice-bear.github.io/" alt="Featured image of post 이번 주 arxiv 논문 3편 디지스트 — 멀티에이전트 토론, MIA, 후설 현상학" /&gt;&lt;h2 id="개요"&gt;개요
&lt;/h2&gt;&lt;p&gt;며칠 사이 등장한 &lt;a class="link" href="https://arxiv.org/" target="_blank" rel="noopener"
 &gt;arxiv&lt;/a&gt; 논문 3편. 시기·주제·접근이 모두 다르지만 묶어서 보면 &lt;strong&gt;&amp;ldquo;AI agent의 추론 향상은 어디서 오는가?&amp;rdquo;&lt;/strong&gt; 라는 한 질문에 협력·영속성·구조라는 다른 각도로 답한다. 단일 LLM 추론 강화의 plateau가 보이는 시점에, 다음 라운드의 키워드가 어디서 오는지를 본다.&lt;/p&gt;
&lt;pre class="mermaid" style="visibility:hidden"&gt;graph TD
 Q["AI agent의 추론 향상은 어디서?"] --&gt; Coop["협력 (Cooperation)"]
 Q --&gt; Pers["영속성 (Persistence)"]
 Q --&gt; Struct["구조 (Structure)"]

 Coop --&gt; P1["Multiagent Debate &amp;lt;br/&amp;gt; 2305.14325 (2023)"]
 Pers --&gt; P2["Memory Intelligence Agent &amp;lt;br/&amp;gt; 2604.04503 (2026)"]
 Struct --&gt; P3["Husserl + Active Inference &amp;lt;br/&amp;gt; 2208.09058 (2022)"]&lt;/pre&gt;&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;#&lt;/th&gt;
 &lt;th&gt;논문&lt;/th&gt;
 &lt;th&gt;연도&lt;/th&gt;
 &lt;th&gt;한 줄 요약&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;1&lt;/td&gt;
 &lt;td&gt;&lt;a class="link" href="https://arxiv.org/abs/2305.14325" target="_blank" rel="noopener"
 &gt;Multiagent Debate&lt;/a&gt;&lt;/td&gt;
 &lt;td&gt;2023&lt;/td&gt;
 &lt;td&gt;여러 LLM 인스턴스가 토론하면 추론이 향상된다&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;2&lt;/td&gt;
 &lt;td&gt;&lt;a class="link" href="https://arxiv.org/abs/2604.04503" target="_blank" rel="noopener"
 &gt;Memory Intelligence Agent (MIA)&lt;/a&gt;&lt;/td&gt;
 &lt;td&gt;2026&lt;/td&gt;
 &lt;td&gt;Deep Research Agent엔 진화하는 메모리가 필요하다&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;3&lt;/td&gt;
 &lt;td&gt;&lt;a class="link" href="https://arxiv.org/abs/2208.09058" target="_blank" rel="noopener"
 &gt;Husserlian Phenomenology + Active Inference&lt;/a&gt;&lt;/td&gt;
 &lt;td&gt;2022&lt;/td&gt;
 &lt;td&gt;의식의 현상학을 계산 모델로 매핑한다&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id="1-multiagent-debate--230514325"&gt;1. Multiagent Debate — 2305.14325
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://yilundu.github.io/" target="_blank" rel="noopener"
 &gt;Yilun Du&lt;/a&gt;, Shuang Li, &lt;a class="link" href="https://groups.csail.mit.edu/vision/torralbalab/" target="_blank" rel="noopener"
 &gt;Antonio Torralba&lt;/a&gt;, &lt;a class="link" href="https://cocosci.mit.edu/josh" target="_blank" rel="noopener"
 &gt;Joshua B. Tenenbaum&lt;/a&gt;, &lt;a class="link" href="https://research.google/people/igor-mordatch/" target="_blank" rel="noopener"
 &gt;Igor Mordatch&lt;/a&gt; — &lt;a class="link" href="https://www.mit.edu/" target="_blank" rel="noopener"
 &gt;MIT&lt;/a&gt; (2023-05). &lt;a class="link" href="https://iclr.cc/Conferences/2025" target="_blank" rel="noopener"
 &gt;ICLR 2025&lt;/a&gt; accepted.&lt;/p&gt;
&lt;h3 id="핵심"&gt;핵심
&lt;/h3&gt;&lt;p&gt;하나의 LLM에게 더 잘 추론하라고 하는 대신, &lt;strong&gt;여러 LLM 인스턴스가 서로 답을 제시하고 토론하게 한다.&lt;/strong&gt; 다중 라운드를 거치며 공통 답변에 도달한다. &lt;a class="link" href="https://en.wikipedia.org/wiki/Marvin_Minsky" target="_blank" rel="noopener"
 &gt;마빈 민스키&lt;/a&gt;의 &lt;a class="link" href="https://en.wikipedia.org/wiki/Society_of_Mind" target="_blank" rel="noopener"
 &gt;Society of Mind&lt;/a&gt; 접근법을 LLM에 도입한 셈.&lt;/p&gt;
&lt;h3 id="contribution"&gt;Contribution
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;멀티에이전트 토론 프레임워크 → 수학·전략적 추론 향상&lt;/li&gt;
&lt;li&gt;할루시네이션 감소, 사실적 타당성 개선&lt;/li&gt;
&lt;li&gt;블랙박스 LLM에 그대로 적용 가능, 모든 태스크에 같은 프롬프트 — fine-tuning 불필요&lt;/li&gt;
&lt;li&gt;단일 모델 강화가 아닌 &lt;strong&gt;인스턴스 협력&lt;/strong&gt;으로 추론을 끌어올린 첫 번째 깔끔한 결과&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="왜-지금-다시-보나"&gt;왜 지금 다시 보나
&lt;/h3&gt;&lt;p&gt;2023년 5월 논문이지만 2026년 시점에서 더 의미가 커졌다. 단일 모델 추론 강화의 plateau가 보이는 시점에, &lt;a class="link" href="https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api" target="_blank" rel="noopener"
 &gt;GPT-Realtime-2&lt;/a&gt;가 강조하는 &lt;strong&gt;parallel tool call&lt;/strong&gt; 의 흐름과 곧장 연결된다. agent-skills 같은 인프라 도구가 &lt;strong&gt;여러 에이전트 동시 운용&lt;/strong&gt;을 전제로 설계되는 이유의 이론적 근거이기도 하다.&lt;/p&gt;
&lt;h2 id="2-memory-intelligence-agent-mia--260404503"&gt;2. Memory Intelligence Agent (MIA) — 2604.04503
&lt;/h2&gt;&lt;p&gt;Jingyang Qiao 외 (2026-04). &lt;a class="link" href="https://openai.com/index/introducing-deep-research/" target="_blank" rel="noopener"
 &gt;Deep Research Agent&lt;/a&gt; 계열을 정조준한 메모리 아키텍처 논문.&lt;/p&gt;
&lt;h3 id="핵심-1"&gt;핵심
&lt;/h3&gt;&lt;p&gt;Deep Research Agent — LLM 추론 + 외부 도구를 결합한 에이전트 — 의 약점은 메모리다. 기존 방식(과거 궤적 retrieval)은 비효율적이고 저장·검색 비용이 폭증한다. MIA는 &lt;strong&gt;Manager-Planner-Executor&lt;/strong&gt; 3계층 아키텍처 + 비매개변수(non-parametric) 메모리 + 매개변수(parametric) 에이전트 2종으로 푼다.&lt;/p&gt;
&lt;pre class="mermaid" style="visibility:hidden"&gt;flowchart LR
 M["Manager &amp;lt;br/&amp;gt; (메모리 압축/관리)"] --&gt; P["Planner &amp;lt;br/&amp;gt; (검색 계획)"]
 P --&gt; E["Executor &amp;lt;br/&amp;gt; (정보 분석)"]
 E --&gt;|"trajectory"| M
 M -.-&gt;|"non-parametric ↔ parametric"| P
 M -.-&gt;|"non-parametric ↔ parametric"| E&lt;/pre&gt;&lt;h3 id="contribution-1"&gt;Contribution
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;압축된 검색 궤적&lt;/strong&gt;을 저장하는 비매개변수 메모리&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;교대 강화학습&lt;/strong&gt; — Planner와 Executor가 번갈아가며 강화. 검색 계획 수립과 정보 분석을 분리.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;테스트 시간 학습 (test-time learning)&lt;/strong&gt; — 추론을 멈추지 않고 on-the-fly로 Planner 업데이트&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;매개변수 ↔ 비매개변수 메모리 양방향 변환&lt;/strong&gt; — 효율적 메모리 진화&lt;/li&gt;
&lt;li&gt;11개 벤치마크 우수 성능&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="왜-지금-다시-보나-1"&gt;왜 지금 다시 보나
&lt;/h3&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/elder-plinius/agentmemory" target="_blank" rel="noopener"
 &gt;agentmemory&lt;/a&gt; 같은 도구의 학술적 배경이다. agentmemory와 이 논문이 며칠 차이로 등장한 사실 자체가 &lt;strong&gt;&amp;ldquo;메모리가 다음 라운드 에이전트의 핵심 차별화 요소&amp;rdquo;&lt;/strong&gt; 라는 업계 합의를 보여준다. Manager-Planner-Executor 분리는 향후 멀티에이전트 프레임워크의 사실상 표준 후보로 보인다. &lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;MCP&lt;/a&gt; 같은 도구 인터페이스 표준이 자리잡는 흐름과 묶어 봐야 한다.&lt;/p&gt;
&lt;h2 id="3-husserlian-phenomenology--active-inference--220809058"&gt;3. Husserlian Phenomenology + Active Inference — 2208.09058
&lt;/h2&gt;&lt;p&gt;Mahault Albarracin, Riddhi J. Pitliya, &lt;a class="link" href="https://maxwelljdramstead.com/" target="_blank" rel="noopener"
 &gt;Maxwell J. D. Ramstead&lt;/a&gt;, Jeffrey Yoshimi (2022-08). &lt;a class="link" href="https://www.fil.ion.ucl.ac.uk/~karl/" target="_blank" rel="noopener"
 &gt;Karl Friston&lt;/a&gt;의 &lt;a class="link" href="https://en.wikipedia.org/wiki/Free_energy_principle" target="_blank" rel="noopener"
 &gt;active inference&lt;/a&gt; 프레임워크를 &lt;a class="link" href="https://plato.stanford.edu/entries/husserl/" target="_blank" rel="noopener"
 &gt;에드문트 후설&lt;/a&gt;의 &lt;a class="link" href="https://plato.stanford.edu/entries/phenomenology/" target="_blank" rel="noopener"
 &gt;현상학&lt;/a&gt;에 매핑한 작업.&lt;/p&gt;
&lt;h3 id="핵심-2"&gt;핵심
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;현상학(phenomenology)&lt;/strong&gt; = 의식 경험의 엄밀한 기술적 연구. 이 논문은 후설의 의식 기술을 &lt;strong&gt;active inference&lt;/strong&gt; — 뇌가 생성 모델로 세계를 예측한다는 신경과학 프레임워크 — 의 수학적 구성요소에 매핑한다.&lt;/p&gt;
&lt;h3 id="contribution-2"&gt;Contribution
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;후설의 시간의식(time consciousness) — retention/protention — 이론을 active inference에 연계&lt;/li&gt;
&lt;li&gt;현상학적 기술 ↔ 계산 신경과학 모델 간 이론적 다리&lt;/li&gt;
&lt;li&gt;의식의 구조를 **생성 모델(generative model)**의 구성 요소로 해석&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;계산 현상학(computational phenomenology)&lt;/strong&gt; 학제 분야의 발전&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="왜-지금-다시-보나-2"&gt;왜 지금 다시 보나
&lt;/h3&gt;&lt;p&gt;이건 가장 추상적이지만 가장 흥미롭다. AI agent가 &amp;ldquo;메모리&amp;quot;와 &amp;ldquo;추론&amp;quot;을 갖춰가면서, &lt;strong&gt;&amp;ldquo;agent가 경험을 어떻게 구조화하는가&amp;rdquo;&lt;/strong&gt; 가 다시 철학적 질문이 된다.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;MIA의 메모리 진화 ≈ 후설의 retention/protention?&lt;/li&gt;
&lt;li&gt;Multiagent debate ≈ 의식의 자기-반성 구조?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;PDF 직접 링크(&lt;code&gt;/pdf/&lt;/code&gt;)가 회자되는 건 누군가 &lt;strong&gt;본문까지 진짜 읽고 있다&lt;/strong&gt;는 신호. &amp;ldquo;AI agent의 다음 라운드는 인지과학에서 온다&amp;rdquo; 같은 베팅을 하는 시야가 있다는 뜻이다.&lt;/p&gt;
&lt;h2 id="묶어서-본-흐름"&gt;묶어서 본 흐름
&lt;/h2&gt;&lt;p&gt;세 논문이 향하는 곳: &lt;strong&gt;단일 LLM의 한계 → 인스턴스 협력 + 진화하는 메모리 + 의식 구조의 차용.&lt;/strong&gt;&lt;/p&gt;
&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;차원&lt;/th&gt;
 &lt;th&gt;답&lt;/th&gt;
 &lt;th&gt;논문&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;협력&lt;/td&gt;
 &lt;td&gt;여러 인스턴스의 토론&lt;/td&gt;
 &lt;td&gt;Multiagent Debate (2023)&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;영속성&lt;/td&gt;
 &lt;td&gt;압축·진화하는 메모리&lt;/td&gt;
 &lt;td&gt;MIA (2026)&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;구조&lt;/td&gt;
 &lt;td&gt;시간의식 → 생성 모델&lt;/td&gt;
 &lt;td&gt;Husserl + Active Inference (2022)&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;이번 주의 픽이 우연히도 깔끔한 3-layer stack을 만든다. agentmemory + agent-skills(전 포스트)와 같이 보면 &lt;strong&gt;연구·도구·실무 합의가 같은 방향으로 수렴 중&lt;/strong&gt;임이 드러난다.&lt;/p&gt;
&lt;h2 id="인사이트"&gt;인사이트
&lt;/h2&gt;&lt;p&gt;세 논문은 발표 시점도 주제도 다르지만, 묶어 읽을 때 같은 합의를 가리킨다 — 단일 LLM의 추론 plateau를 뚫는 길은 모델을 한 사이즈 더 키우는 게 아니라, &lt;strong&gt;여러 인스턴스의 협력 + 진화하는 메모리 + 경험 구조의 명시적 모델링&lt;/strong&gt;이라는 합의다. Multiagent Debate가 &amp;ldquo;어떻게 협력시키는가&amp;quot;의 첫 번째 깔끔한 답이라면, MIA는 &amp;ldquo;그 협력을 어떻게 시간에 걸쳐 누적시키는가&amp;quot;에 답하고, 후설 + Active Inference 매핑은 &amp;ldquo;그 누적이 결국 어떤 구조를 닮아가야 하는가&amp;quot;라는 더 먼 좌표를 던진다. &lt;a class="link" href="https://github.com/elder-plinius/agentmemory" target="_blank" rel="noopener"
 &gt;agentmemory&lt;/a&gt;·agent-skills 같은 실무 도구와 이 세 논문이 며칠 차이로 등장한다는 점은 &lt;strong&gt;연구-도구-실무 합의가 같은 방향으로 수렴 중&lt;/strong&gt;이라는 신호다. 다음 라운드의 차별화는 모델 크기가 아니라 협력 토폴로지·메모리 진화 정책·경험 구조 모델링에서 나올 가능성이 높다.&lt;/p&gt;
&lt;h2 id="참고"&gt;참고
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Papers&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2305.14325" target="_blank" rel="noopener"
 &gt;Improving Factuality and Reasoning in Language Models through Multiagent Debate (2305.14325)&lt;/a&gt; — Du, Li, Torralba, Tenenbaum, Mordatch (&lt;a class="link" href="https://www.mit.edu/" target="_blank" rel="noopener"
 &gt;MIT&lt;/a&gt;, 2023)&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2604.04503" target="_blank" rel="noopener"
 &gt;Memory Intelligence Agent (2604.04503)&lt;/a&gt; — Qiao 외 (2026)&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2208.09058" target="_blank" rel="noopener"
 &gt;Mapping Husserlian Phenomenology onto Active Inference (2208.09058)&lt;/a&gt; — Albarracin, Pitliya, Ramstead, Yoshimi (2022)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Related concepts&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Society_of_Mind" target="_blank" rel="noopener"
 &gt;Society of Mind&lt;/a&gt; — &lt;a class="link" href="https://en.wikipedia.org/wiki/Marvin_Minsky" target="_blank" rel="noopener"
 &gt;Marvin Minsky&lt;/a&gt;의 다중 에이전트 인지 이론&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openai.com/index/introducing-deep-research/" target="_blank" rel="noopener"
 &gt;Deep Research Agent&lt;/a&gt; — OpenAI의 도구 사용 에이전트 시스템&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Free_energy_principle" target="_blank" rel="noopener"
 &gt;Active Inference / Free Energy Principle&lt;/a&gt; — &lt;a class="link" href="https://www.fil.ion.ucl.ac.uk/~karl/" target="_blank" rel="noopener"
 &gt;Karl Friston&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://plato.stanford.edu/entries/husserl/" target="_blank" rel="noopener"
 &gt;Husserl 현상학 (SEP)&lt;/a&gt; · &lt;a class="link" href="https://plato.stanford.edu/entries/phenomenology/" target="_blank" rel="noopener"
 &gt;Phenomenology (SEP)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;Model Context Protocol (MCP)&lt;/a&gt; — 도구 인터페이스 표준&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://iclr.cc/Conferences/2025" target="_blank" rel="noopener"
 &gt;ICLR 2025&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Background reading&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/" target="_blank" rel="noopener"
 &gt;arxiv.org&lt;/a&gt; — 프리프린트 서버&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://yilundu.github.io/" target="_blank" rel="noopener"
 &gt;Yilun Du&lt;/a&gt; · &lt;a class="link" href="https://cocosci.mit.edu/josh" target="_blank" rel="noopener"
 &gt;Joshua Tenenbaum&lt;/a&gt; · &lt;a class="link" href="https://groups.csail.mit.edu/vision/torralbalab/" target="_blank" rel="noopener"
 &gt;Antonio Torralba&lt;/a&gt; · &lt;a class="link" href="https://research.google/people/igor-mordatch/" target="_blank" rel="noopener"
 &gt;Igor Mordatch&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://maxwelljdramstead.com/" target="_blank" rel="noopener"
 &gt;Maxwell J. D. Ramstead&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api" target="_blank" rel="noopener"
 &gt;GPT-Realtime-2 (parallel tool call 도입)&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>