<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Deep Research Agent on ICE-ICE-BEAR-BLOG</title><link>https://ice-ice-bear.github.io/ko/tags/deep-research-agent/</link><description>Recent content in Deep Research Agent on ICE-ICE-BEAR-BLOG</description><generator>Hugo -- gohugo.io</generator><language>ko</language><lastBuildDate>Wed, 06 May 2026 00:00:00 +0900</lastBuildDate><atom:link href="https://ice-ice-bear.github.io/ko/tags/deep-research-agent/index.xml" rel="self" type="application/rss+xml"/><item><title>이번 주 arxiv 논문 3편 디지스트 — 멀티에이전트 토론, MIA, 후설 현상학</title><link>https://ice-ice-bear.github.io/ko/posts/2026-05-06-arxiv-papers-pick-multiagent-debate-mia-husserl/</link><pubDate>Wed, 06 May 2026 00:00:00 +0900</pubDate><guid>https://ice-ice-bear.github.io/ko/posts/2026-05-06-arxiv-papers-pick-multiagent-debate-mia-husserl/</guid><description>&lt;img src="https://ice-ice-bear.github.io/" alt="Featured image of post 이번 주 arxiv 논문 3편 디지스트 — 멀티에이전트 토론, MIA, 후설 현상학" /&gt;&lt;h2 id="개요"&gt;개요
&lt;/h2&gt;&lt;p&gt;며칠 사이 등장한 &lt;a class="link" href="https://arxiv.org/" target="_blank" rel="noopener"
 &gt;arxiv&lt;/a&gt; 논문 3편. 시기·주제·접근이 모두 다르지만 묶어서 보면 &lt;strong&gt;&amp;ldquo;AI agent의 추론 향상은 어디서 오는가?&amp;rdquo;&lt;/strong&gt; 라는 한 질문에 협력·영속성·구조라는 다른 각도로 답한다. 단일 LLM 추론 강화의 plateau가 보이는 시점에, 다음 라운드의 키워드가 어디서 오는지를 본다.&lt;/p&gt;
&lt;pre class="mermaid" style="visibility:hidden"&gt;graph TD
 Q["AI agent의 추론 향상은 어디서?"] --&gt; Coop["협력 (Cooperation)"]
 Q --&gt; Pers["영속성 (Persistence)"]
 Q --&gt; Struct["구조 (Structure)"]

 Coop --&gt; P1["Multiagent Debate &amp;lt;br/&amp;gt; 2305.14325 (2023)"]
 Pers --&gt; P2["Memory Intelligence Agent &amp;lt;br/&amp;gt; 2604.04503 (2026)"]
 Struct --&gt; P3["Husserl + Active Inference &amp;lt;br/&amp;gt; 2208.09058 (2022)"]&lt;/pre&gt;&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;#&lt;/th&gt;
 &lt;th&gt;논문&lt;/th&gt;
 &lt;th&gt;연도&lt;/th&gt;
 &lt;th&gt;한 줄 요약&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;1&lt;/td&gt;
 &lt;td&gt;&lt;a class="link" href="https://arxiv.org/abs/2305.14325" target="_blank" rel="noopener"
 &gt;Multiagent Debate&lt;/a&gt;&lt;/td&gt;
 &lt;td&gt;2023&lt;/td&gt;
 &lt;td&gt;여러 LLM 인스턴스가 토론하면 추론이 향상된다&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;2&lt;/td&gt;
 &lt;td&gt;&lt;a class="link" href="https://arxiv.org/abs/2604.04503" target="_blank" rel="noopener"
 &gt;Memory Intelligence Agent (MIA)&lt;/a&gt;&lt;/td&gt;
 &lt;td&gt;2026&lt;/td&gt;
 &lt;td&gt;Deep Research Agent엔 진화하는 메모리가 필요하다&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;3&lt;/td&gt;
 &lt;td&gt;&lt;a class="link" href="https://arxiv.org/abs/2208.09058" target="_blank" rel="noopener"
 &gt;Husserlian Phenomenology + Active Inference&lt;/a&gt;&lt;/td&gt;
 &lt;td&gt;2022&lt;/td&gt;
 &lt;td&gt;의식의 현상학을 계산 모델로 매핑한다&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id="1-multiagent-debate--230514325"&gt;1. Multiagent Debate — 2305.14325
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://yilundu.github.io/" target="_blank" rel="noopener"
 &gt;Yilun Du&lt;/a&gt;, Shuang Li, &lt;a class="link" href="https://groups.csail.mit.edu/vision/torralbalab/" target="_blank" rel="noopener"
 &gt;Antonio Torralba&lt;/a&gt;, &lt;a class="link" href="https://cocosci.mit.edu/josh" target="_blank" rel="noopener"
 &gt;Joshua B. Tenenbaum&lt;/a&gt;, &lt;a class="link" href="https://research.google/people/igor-mordatch/" target="_blank" rel="noopener"
 &gt;Igor Mordatch&lt;/a&gt; — &lt;a class="link" href="https://www.mit.edu/" target="_blank" rel="noopener"
 &gt;MIT&lt;/a&gt; (2023-05). &lt;a class="link" href="https://iclr.cc/Conferences/2025" target="_blank" rel="noopener"
 &gt;ICLR 2025&lt;/a&gt; accepted.&lt;/p&gt;
&lt;h3 id="핵심"&gt;핵심
&lt;/h3&gt;&lt;p&gt;하나의 LLM에게 더 잘 추론하라고 하는 대신, &lt;strong&gt;여러 LLM 인스턴스가 서로 답을 제시하고 토론하게 한다.&lt;/strong&gt; 다중 라운드를 거치며 공통 답변에 도달한다. &lt;a class="link" href="https://en.wikipedia.org/wiki/Marvin_Minsky" target="_blank" rel="noopener"
 &gt;마빈 민스키&lt;/a&gt;의 &lt;a class="link" href="https://en.wikipedia.org/wiki/Society_of_Mind" target="_blank" rel="noopener"
 &gt;Society of Mind&lt;/a&gt; 접근법을 LLM에 도입한 셈.&lt;/p&gt;
&lt;h3 id="contribution"&gt;Contribution
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;멀티에이전트 토론 프레임워크 → 수학·전략적 추론 향상&lt;/li&gt;
&lt;li&gt;할루시네이션 감소, 사실적 타당성 개선&lt;/li&gt;
&lt;li&gt;블랙박스 LLM에 그대로 적용 가능, 모든 태스크에 같은 프롬프트 — fine-tuning 불필요&lt;/li&gt;
&lt;li&gt;단일 모델 강화가 아닌 &lt;strong&gt;인스턴스 협력&lt;/strong&gt;으로 추론을 끌어올린 첫 번째 깔끔한 결과&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="왜-지금-다시-보나"&gt;왜 지금 다시 보나
&lt;/h3&gt;&lt;p&gt;2023년 5월 논문이지만 2026년 시점에서 더 의미가 커졌다. 단일 모델 추론 강화의 plateau가 보이는 시점에, &lt;a class="link" href="https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api" target="_blank" rel="noopener"
 &gt;GPT-Realtime-2&lt;/a&gt;가 강조하는 &lt;strong&gt;parallel tool call&lt;/strong&gt; 의 흐름과 곧장 연결된다. agent-skills 같은 인프라 도구가 &lt;strong&gt;여러 에이전트 동시 운용&lt;/strong&gt;을 전제로 설계되는 이유의 이론적 근거이기도 하다.&lt;/p&gt;
&lt;h2 id="2-memory-intelligence-agent-mia--260404503"&gt;2. Memory Intelligence Agent (MIA) — 2604.04503
&lt;/h2&gt;&lt;p&gt;Jingyang Qiao 외 (2026-04). &lt;a class="link" href="https://openai.com/index/introducing-deep-research/" target="_blank" rel="noopener"
 &gt;Deep Research Agent&lt;/a&gt; 계열을 정조준한 메모리 아키텍처 논문.&lt;/p&gt;
&lt;h3 id="핵심-1"&gt;핵심
&lt;/h3&gt;&lt;p&gt;Deep Research Agent — LLM 추론 + 외부 도구를 결합한 에이전트 — 의 약점은 메모리다. 기존 방식(과거 궤적 retrieval)은 비효율적이고 저장·검색 비용이 폭증한다. MIA는 &lt;strong&gt;Manager-Planner-Executor&lt;/strong&gt; 3계층 아키텍처 + 비매개변수(non-parametric) 메모리 + 매개변수(parametric) 에이전트 2종으로 푼다.&lt;/p&gt;
&lt;pre class="mermaid" style="visibility:hidden"&gt;flowchart LR
 M["Manager &amp;lt;br/&amp;gt; (메모리 압축/관리)"] --&gt; P["Planner &amp;lt;br/&amp;gt; (검색 계획)"]
 P --&gt; E["Executor &amp;lt;br/&amp;gt; (정보 분석)"]
 E --&gt;|"trajectory"| M
 M -.-&gt;|"non-parametric ↔ parametric"| P
 M -.-&gt;|"non-parametric ↔ parametric"| E&lt;/pre&gt;&lt;h3 id="contribution-1"&gt;Contribution
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;압축된 검색 궤적&lt;/strong&gt;을 저장하는 비매개변수 메모리&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;교대 강화학습&lt;/strong&gt; — Planner와 Executor가 번갈아가며 강화. 검색 계획 수립과 정보 분석을 분리.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;테스트 시간 학습 (test-time learning)&lt;/strong&gt; — 추론을 멈추지 않고 on-the-fly로 Planner 업데이트&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;매개변수 ↔ 비매개변수 메모리 양방향 변환&lt;/strong&gt; — 효율적 메모리 진화&lt;/li&gt;
&lt;li&gt;11개 벤치마크 우수 성능&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="왜-지금-다시-보나-1"&gt;왜 지금 다시 보나
&lt;/h3&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/elder-plinius/agentmemory" target="_blank" rel="noopener"
 &gt;agentmemory&lt;/a&gt; 같은 도구의 학술적 배경이다. agentmemory와 이 논문이 며칠 차이로 등장한 사실 자체가 &lt;strong&gt;&amp;ldquo;메모리가 다음 라운드 에이전트의 핵심 차별화 요소&amp;rdquo;&lt;/strong&gt; 라는 업계 합의를 보여준다. Manager-Planner-Executor 분리는 향후 멀티에이전트 프레임워크의 사실상 표준 후보로 보인다. &lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;MCP&lt;/a&gt; 같은 도구 인터페이스 표준이 자리잡는 흐름과 묶어 봐야 한다.&lt;/p&gt;
&lt;h2 id="3-husserlian-phenomenology--active-inference--220809058"&gt;3. Husserlian Phenomenology + Active Inference — 2208.09058
&lt;/h2&gt;&lt;p&gt;Mahault Albarracin, Riddhi J. Pitliya, &lt;a class="link" href="https://maxwelljdramstead.com/" target="_blank" rel="noopener"
 &gt;Maxwell J. D. Ramstead&lt;/a&gt;, Jeffrey Yoshimi (2022-08). &lt;a class="link" href="https://www.fil.ion.ucl.ac.uk/~karl/" target="_blank" rel="noopener"
 &gt;Karl Friston&lt;/a&gt;의 &lt;a class="link" href="https://en.wikipedia.org/wiki/Free_energy_principle" target="_blank" rel="noopener"
 &gt;active inference&lt;/a&gt; 프레임워크를 &lt;a class="link" href="https://plato.stanford.edu/entries/husserl/" target="_blank" rel="noopener"
 &gt;에드문트 후설&lt;/a&gt;의 &lt;a class="link" href="https://plato.stanford.edu/entries/phenomenology/" target="_blank" rel="noopener"
 &gt;현상학&lt;/a&gt;에 매핑한 작업.&lt;/p&gt;
&lt;h3 id="핵심-2"&gt;핵심
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;현상학(phenomenology)&lt;/strong&gt; = 의식 경험의 엄밀한 기술적 연구. 이 논문은 후설의 의식 기술을 &lt;strong&gt;active inference&lt;/strong&gt; — 뇌가 생성 모델로 세계를 예측한다는 신경과학 프레임워크 — 의 수학적 구성요소에 매핑한다.&lt;/p&gt;
&lt;h3 id="contribution-2"&gt;Contribution
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;후설의 시간의식(time consciousness) — retention/protention — 이론을 active inference에 연계&lt;/li&gt;
&lt;li&gt;현상학적 기술 ↔ 계산 신경과학 모델 간 이론적 다리&lt;/li&gt;
&lt;li&gt;의식의 구조를 **생성 모델(generative model)**의 구성 요소로 해석&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;계산 현상학(computational phenomenology)&lt;/strong&gt; 학제 분야의 발전&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="왜-지금-다시-보나-2"&gt;왜 지금 다시 보나
&lt;/h3&gt;&lt;p&gt;이건 가장 추상적이지만 가장 흥미롭다. AI agent가 &amp;ldquo;메모리&amp;quot;와 &amp;ldquo;추론&amp;quot;을 갖춰가면서, &lt;strong&gt;&amp;ldquo;agent가 경험을 어떻게 구조화하는가&amp;rdquo;&lt;/strong&gt; 가 다시 철학적 질문이 된다.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;MIA의 메모리 진화 ≈ 후설의 retention/protention?&lt;/li&gt;
&lt;li&gt;Multiagent debate ≈ 의식의 자기-반성 구조?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;PDF 직접 링크(&lt;code&gt;/pdf/&lt;/code&gt;)가 회자되는 건 누군가 &lt;strong&gt;본문까지 진짜 읽고 있다&lt;/strong&gt;는 신호. &amp;ldquo;AI agent의 다음 라운드는 인지과학에서 온다&amp;rdquo; 같은 베팅을 하는 시야가 있다는 뜻이다.&lt;/p&gt;
&lt;h2 id="묶어서-본-흐름"&gt;묶어서 본 흐름
&lt;/h2&gt;&lt;p&gt;세 논문이 향하는 곳: &lt;strong&gt;단일 LLM의 한계 → 인스턴스 협력 + 진화하는 메모리 + 의식 구조의 차용.&lt;/strong&gt;&lt;/p&gt;
&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;차원&lt;/th&gt;
 &lt;th&gt;답&lt;/th&gt;
 &lt;th&gt;논문&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;협력&lt;/td&gt;
 &lt;td&gt;여러 인스턴스의 토론&lt;/td&gt;
 &lt;td&gt;Multiagent Debate (2023)&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;영속성&lt;/td&gt;
 &lt;td&gt;압축·진화하는 메모리&lt;/td&gt;
 &lt;td&gt;MIA (2026)&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;구조&lt;/td&gt;
 &lt;td&gt;시간의식 → 생성 모델&lt;/td&gt;
 &lt;td&gt;Husserl + Active Inference (2022)&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;이번 주의 픽이 우연히도 깔끔한 3-layer stack을 만든다. agentmemory + agent-skills(전 포스트)와 같이 보면 &lt;strong&gt;연구·도구·실무 합의가 같은 방향으로 수렴 중&lt;/strong&gt;임이 드러난다.&lt;/p&gt;
&lt;h2 id="인사이트"&gt;인사이트
&lt;/h2&gt;&lt;p&gt;세 논문은 발표 시점도 주제도 다르지만, 묶어 읽을 때 같은 합의를 가리킨다 — 단일 LLM의 추론 plateau를 뚫는 길은 모델을 한 사이즈 더 키우는 게 아니라, &lt;strong&gt;여러 인스턴스의 협력 + 진화하는 메모리 + 경험 구조의 명시적 모델링&lt;/strong&gt;이라는 합의다. Multiagent Debate가 &amp;ldquo;어떻게 협력시키는가&amp;quot;의 첫 번째 깔끔한 답이라면, MIA는 &amp;ldquo;그 협력을 어떻게 시간에 걸쳐 누적시키는가&amp;quot;에 답하고, 후설 + Active Inference 매핑은 &amp;ldquo;그 누적이 결국 어떤 구조를 닮아가야 하는가&amp;quot;라는 더 먼 좌표를 던진다. &lt;a class="link" href="https://github.com/elder-plinius/agentmemory" target="_blank" rel="noopener"
 &gt;agentmemory&lt;/a&gt;·agent-skills 같은 실무 도구와 이 세 논문이 며칠 차이로 등장한다는 점은 &lt;strong&gt;연구-도구-실무 합의가 같은 방향으로 수렴 중&lt;/strong&gt;이라는 신호다. 다음 라운드의 차별화는 모델 크기가 아니라 협력 토폴로지·메모리 진화 정책·경험 구조 모델링에서 나올 가능성이 높다.&lt;/p&gt;
&lt;h2 id="참고"&gt;참고
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Papers&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2305.14325" target="_blank" rel="noopener"
 &gt;Improving Factuality and Reasoning in Language Models through Multiagent Debate (2305.14325)&lt;/a&gt; — Du, Li, Torralba, Tenenbaum, Mordatch (&lt;a class="link" href="https://www.mit.edu/" target="_blank" rel="noopener"
 &gt;MIT&lt;/a&gt;, 2023)&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2604.04503" target="_blank" rel="noopener"
 &gt;Memory Intelligence Agent (2604.04503)&lt;/a&gt; — Qiao 외 (2026)&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2208.09058" target="_blank" rel="noopener"
 &gt;Mapping Husserlian Phenomenology onto Active Inference (2208.09058)&lt;/a&gt; — Albarracin, Pitliya, Ramstead, Yoshimi (2022)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Related concepts&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Society_of_Mind" target="_blank" rel="noopener"
 &gt;Society of Mind&lt;/a&gt; — &lt;a class="link" href="https://en.wikipedia.org/wiki/Marvin_Minsky" target="_blank" rel="noopener"
 &gt;Marvin Minsky&lt;/a&gt;의 다중 에이전트 인지 이론&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openai.com/index/introducing-deep-research/" target="_blank" rel="noopener"
 &gt;Deep Research Agent&lt;/a&gt; — OpenAI의 도구 사용 에이전트 시스템&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Free_energy_principle" target="_blank" rel="noopener"
 &gt;Active Inference / Free Energy Principle&lt;/a&gt; — &lt;a class="link" href="https://www.fil.ion.ucl.ac.uk/~karl/" target="_blank" rel="noopener"
 &gt;Karl Friston&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://plato.stanford.edu/entries/husserl/" target="_blank" rel="noopener"
 &gt;Husserl 현상학 (SEP)&lt;/a&gt; · &lt;a class="link" href="https://plato.stanford.edu/entries/phenomenology/" target="_blank" rel="noopener"
 &gt;Phenomenology (SEP)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://modelcontextprotocol.io/" target="_blank" rel="noopener"
 &gt;Model Context Protocol (MCP)&lt;/a&gt; — 도구 인터페이스 표준&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://iclr.cc/Conferences/2025" target="_blank" rel="noopener"
 &gt;ICLR 2025&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Background reading&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/" target="_blank" rel="noopener"
 &gt;arxiv.org&lt;/a&gt; — 프리프린트 서버&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://yilundu.github.io/" target="_blank" rel="noopener"
 &gt;Yilun Du&lt;/a&gt; · &lt;a class="link" href="https://cocosci.mit.edu/josh" target="_blank" rel="noopener"
 &gt;Joshua Tenenbaum&lt;/a&gt; · &lt;a class="link" href="https://groups.csail.mit.edu/vision/torralbalab/" target="_blank" rel="noopener"
 &gt;Antonio Torralba&lt;/a&gt; · &lt;a class="link" href="https://research.google/people/igor-mordatch/" target="_blank" rel="noopener"
 &gt;Igor Mordatch&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://maxwelljdramstead.com/" target="_blank" rel="noopener"
 &gt;Maxwell J. D. Ramstead&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api" target="_blank" rel="noopener"
 &gt;GPT-Realtime-2 (parallel tool call 도입)&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>