<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Backtesting on ICE-ICE-BEAR-BLOG</title><link>https://ice-ice-bear.github.io/ko/tags/backtesting/</link><description>Recent content in Backtesting on ICE-ICE-BEAR-BLOG</description><generator>Hugo -- gohugo.io</generator><language>ko</language><lastBuildDate>Sun, 10 May 2026 00:00:00 +0900</lastBuildDate><atom:link href="https://ice-ice-bear.github.io/ko/tags/backtesting/index.xml" rel="self" type="application/rss+xml"/><item><title>Microsoft qlib — LLM 시대의 퀀트 인프라, RD-Agent가 올라타는 그 레일</title><link>https://ice-ice-bear.github.io/ko/posts/2026-05-10-microsoft-qlib-quant-ai/</link><pubDate>Sun, 10 May 2026 00:00:00 +0900</pubDate><guid>https://ice-ice-bear.github.io/ko/posts/2026-05-10-microsoft-qlib-quant-ai/</guid><description>&lt;img src="https://ice-ice-bear.github.io/" alt="Featured image of post Microsoft qlib — LLM 시대의 퀀트 인프라, RD-Agent가 올라타는 그 레일" /&gt;&lt;h2 id="개요"&gt;개요
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/microsoft/qlib" target="_blank" rel="noopener"
 &gt;Microsoft qlib&lt;/a&gt;은 2020년 8월에 처음 공개된 AI 지향 퀀트 투자 플랫폼이다. 별 4.2만 개를 넘긴 이 레포는 새 프로젝트가 아니지만, 2026년 들어 다시 부각된다. 이유는 단순하다. &lt;strong&gt;LLM 기반 금융 에이전트&lt;/strong&gt;(특히 &lt;a class="link" href="https://github.com/microsoft/RD-Agent" target="_blank" rel="noopener"
 &gt;microsoft/RD-Agent&lt;/a&gt;의 &lt;a class="link" href="https://arxiv.org/abs/2505.15155" target="_blank" rel="noopener"
 &gt;R&amp;amp;D-Agent-Quant&lt;/a&gt;)가 자동으로 &lt;strong&gt;알파 팩터를 캐고 모델을 최적화&lt;/strong&gt;하는 시점이 오자, 그 결과를 재현 가능하게 검증해줄 &lt;strong&gt;퀀트 워크플로 백본&lt;/strong&gt;이 필요해졌고, 그 자리에 살아남아 있는 가장 활발한 오픈소스가 qlib이기 때문이다. 즉 qlib은 더 이상 &amp;ldquo;또 하나의 백테스팅 라이브러리&amp;quot;가 아니라, LLM 에이전트가 그 위를 달릴 &lt;strong&gt;레일&lt;/strong&gt;로 위치가 바뀌었다.&lt;/p&gt;
&lt;pre class="mermaid" style="visibility:hidden"&gt;graph TD
 Data["데이터 수집 &amp;lt;br/&amp;gt; Yahoo, A주, 자체 CSV"] --&gt; Storage["Qlib 바이너리 스토리지 &amp;lt;br/&amp;gt; 컬럼 지향 파일"]
 Storage --&gt; Expr["표현식 엔진 &amp;lt;br/&amp;gt; $close, Ref, Mean"]
 Expr --&gt; Factor["알파 팩터 라이브러리 &amp;lt;br/&amp;gt; Alpha158, Alpha360"]
 Factor --&gt; Model["모델 학습 &amp;lt;br/&amp;gt; LightGBM, GRU, TRA"]
 Model --&gt; Signal["예측 신호 &amp;lt;br/&amp;gt; IC, Rank IC"]
 Signal --&gt; Strat["포트폴리오 전략 &amp;lt;br/&amp;gt; TopK Dropout"]
 Strat --&gt; Bt["백테스팅 &amp;lt;br/&amp;gt; 비용/슬리피지 반영"]
 Bt --&gt; Report["성과 분석 &amp;lt;br/&amp;gt; IR, MDD, 누적수익"]
 Report --&gt; RD["RD-Agent LLM &amp;lt;br/&amp;gt; 팩터 자동 제안 루프"]
 RD -.-&gt;|feedback| Factor&lt;/pre&gt;&lt;h2 id="1-qlib이-실제로-하는-일"&gt;1. qlib이 실제로 하는 일
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/microsoft/qlib/blob/main/README.md" target="_blank" rel="noopener"
 &gt;qlib README&lt;/a&gt;는 &amp;ldquo;exploring ideas to implementing productions&amp;quot;라고 쓰지만, 분해하면 네 개의 레이어다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Layer 1 — 데이터 인프라.&lt;/strong&gt; qlib은 자체 &lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/data.html" target="_blank" rel="noopener"
 &gt;컬럼 지향 바이너리 포맷&lt;/a&gt;으로 시계열 데이터를 저장한다. pandas DataFrame에 그대로 올리면 거대해지는 일봉/분봉 데이터를 &lt;strong&gt;빠른 슬라이싱&lt;/strong&gt;이 가능한 형태로 압축한다. 데이터 수집 스크립트는 &lt;a class="link" href="https://github.com/microsoft/qlib/tree/main/scripts/data_collector/yahoo" target="_blank" rel="noopener"
 &gt;Yahoo Finance 콜렉터&lt;/a&gt;와 &lt;a class="link" href="https://github.com/microsoft/qlib/tree/main/scripts/data_collector" target="_blank" rel="noopener"
 &gt;중국 A주 콜렉터&lt;/a&gt; 모두 포함하고, 커뮤니티가 관리하는 &lt;a class="link" href="https://github.com/chenditc/investment_data" target="_blank" rel="noopener"
 &gt;chenditc/investment_data&lt;/a&gt; 미러도 표준 경로로 자리잡았다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Layer 2 — 표현식 엔진.&lt;/strong&gt; &lt;code&gt;$close&lt;/code&gt;, &lt;code&gt;Ref($close, 1)&lt;/code&gt;, &lt;code&gt;Mean($close, 3)&lt;/code&gt;, &lt;code&gt;$high-$low&lt;/code&gt; 같은 도메인 특화 문법으로 팩터를 선언한다. 이게 단순해 보여도 핵심이다 — 팩터를 &lt;strong&gt;데이터 형태가 아니라 함수 형태로 선언&lt;/strong&gt;하기 때문에, LLM이 자연어 → qlib expression 변환을 학습하기 쉽다. 이 부분이 RD-Agent와 맞물리는 첫 번째 접점이다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Layer 3 — 모델 동물원.&lt;/strong&gt; &lt;a class="link" href="https://github.com/microsoft/qlib/tree/main/examples/benchmarks" target="_blank" rel="noopener"
 &gt;examples/benchmarks&lt;/a&gt;를 보면 &lt;a class="link" href="https://lightgbm.readthedocs.io/" target="_blank" rel="noopener"
 &gt;LightGBM&lt;/a&gt;, &lt;a class="link" href="https://xgboost.readthedocs.io/" target="_blank" rel="noopener"
 &gt;XGBoost&lt;/a&gt;, &lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/model.html" target="_blank" rel="noopener"
 &gt;MLP&lt;/a&gt;, &lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/model.html" target="_blank" rel="noopener"
 &gt;GRU&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/508" target="_blank" rel="noopener"
 &gt;Transformer&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/508" target="_blank" rel="noopener"
 &gt;Localformer&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/205" target="_blank" rel="noopener"
 &gt;TabNet&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/286" target="_blank" rel="noopener"
 &gt;DoubleEnsemble&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/1040" target="_blank" rel="noopener"
 &gt;HIST&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/1040" target="_blank" rel="noopener"
 &gt;IGMTF&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/531" target="_blank" rel="noopener"
 &gt;TRA (Temporal Routing Adaptor)&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/491" target="_blank" rel="noopener"
 &gt;TCTS&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/689" target="_blank" rel="noopener"
 &gt;ADARNN&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/704" target="_blank" rel="noopener"
 &gt;ADD&lt;/a&gt;, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/1414" target="_blank" rel="noopener"
 &gt;KRNN, Sandwich&lt;/a&gt;까지 — 학계에서 나온 시계열 SOTA 모델 대부분이 동일한 인터페이스 뒤에 깔려 있다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Layer 4 — 백테스팅과 실행.&lt;/strong&gt; &lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/highfreq.html" target="_blank" rel="noopener"
 &gt;Nested Decision Framework&lt;/a&gt;로 일봉 전략과 분봉 실행을 같은 트리에 묶고, &lt;a class="link" href="https://github.com/microsoft/qlib/pull/290" target="_blank" rel="noopener"
 &gt;Online serving&lt;/a&gt;으로 모델 롤링을 자동화한다. &lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/rl.html" target="_blank" rel="noopener"
 &gt;RL 학습 프레임워크&lt;/a&gt;는 주문 실행을 연속 의사결정 문제로 모델링한다.&lt;/p&gt;
&lt;h2 id="2-왜-microsoft가-이걸-풀었나"&gt;2. 왜 Microsoft가 이걸 풀었나
&lt;/h2&gt;&lt;p&gt;원 &lt;a class="link" href="https://arxiv.org/abs/2009.11189" target="_blank" rel="noopener"
 &gt;qlib 논문&lt;/a&gt;을 쓴 그룹은 &lt;a class="link" href="https://www.microsoft.com/en-us/research/lab/microsoft-research-asia/" target="_blank" rel="noopener"
 &gt;MSRA(Microsoft Research Asia)&lt;/a&gt;의 시계열·금융 팀이다. 표면상 이유는 &amp;ldquo;open research&amp;rdquo;. 그러나 실제 동인은 세 가지가 겹친다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;리서치 신뢰 자본.&lt;/strong&gt; 시계열 ML 논문 — &lt;a class="link" href="https://arxiv.org/abs/2110.13716" target="_blank" rel="noopener"
 &gt;HIST&lt;/a&gt;, &lt;a class="link" href="https://arxiv.org/abs/2201.04038" target="_blank" rel="noopener"
 &gt;DDG-DA&lt;/a&gt;, &lt;a class="link" href="https://arxiv.org/abs/2108.04443" target="_blank" rel="noopener"
 &gt;ADARNN&lt;/a&gt;, &lt;a class="link" href="https://arxiv.org/abs/2106.12950" target="_blank" rel="noopener"
 &gt;TRA&lt;/a&gt; — 가 모두 같은 플랫폼 위에서 재현 가능하다. 논문 그래프가 그 자리에서 돌아가는 코드와 매칭되니까, MSRA의 시계열 페이퍼는 &amp;ldquo;구현이 진짜냐&amp;quot;는 의심에서 자유롭다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;탤런트 파이프라인.&lt;/strong&gt; &lt;a class="link" href="https://www.microsoft.com/en-us/research/people/jiabia/" target="_blank" rel="noopener"
 &gt;Jiang Bian 그룹&lt;/a&gt;의 학생/인턴이 qlib 위에서 논문을 쓰고, 졸업 후 Microsoft / 헤지펀드 / 빅테크로 흩어진다. 오픈소스가 곧 채용 깔때기다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Azure ML 결합 가능성.&lt;/strong&gt; qlib의 워크플로 매니저는 &lt;a class="link" href="https://mlflow.org/" target="_blank" rel="noopener"
 &gt;MLflow&lt;/a&gt; experiment 추적과 직접 연결된다. Azure ML이 MLflow 호환을 표준으로 채택한 시점부터, qlib은 Azure 위에서 가장 자연스럽게 도는 도메인 특화 ML 스택이 된다.&lt;/p&gt;
&lt;h2 id="3-pyfolio--zipline--vectorbt와의-차이"&gt;3. pyfolio / zipline / vectorbt와의 차이
&lt;/h2&gt;&lt;p&gt;기존 오픈소스 퀀트 스택은 ML 시대 이전 설계다.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/quantopian/zipline" target="_blank" rel="noopener"
 &gt;zipline&lt;/a&gt; — Quantopian의 백테스팅 엔진. 2020년 Quantopian 폐업 이후 &lt;a class="link" href="https://github.com/stefan-jansen/zipline-reloaded" target="_blank" rel="noopener"
 &gt;zipline-reloaded&lt;/a&gt; 포크가 유지되고 있지만, &lt;strong&gt;이벤트 드리븐 백테스트&lt;/strong&gt;가 중심이고 ML 워크플로는 외부에서 따로 묶어야 한다.&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/quantopian/pyfolio" target="_blank" rel="noopener"
 &gt;pyfolio&lt;/a&gt; — 백테스트 결과의 &lt;strong&gt;사후 분석&lt;/strong&gt;. IR, drawdown, factor exposure 같은 리포트 도구. 모델 학습 단계는 다루지 않는다.&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://vectorbt.dev/" target="_blank" rel="noopener"
 &gt;vectorbt&lt;/a&gt; — 벡터화 백테스트로 &lt;strong&gt;빠른 파라미터 스윕&lt;/strong&gt;에 강점. 단일 전략을 빠르게 시뮬레이션하는 도구이지 ML-퍼스트 설계는 아니다.&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://www.backtrader.com/" target="_blank" rel="noopener"
 &gt;backtrader&lt;/a&gt; — 이벤트 드리븐, 개인 개발자에게 친숙. 같은 한계.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;qlib이 다른 지점은 &lt;strong&gt;시계열 ML 파이프라인 전체&lt;/strong&gt;를 단일 인터페이스에 묶었다는 것이다. 데이터 수집 → 팩터 표현 → 모델 학습 → 신호 평가 → 백테스트 → 분석 → 온라인 서빙이 모두 하나의 &lt;code&gt;qrun&lt;/code&gt; 명령으로 실행되는 &lt;a class="link" href="https://github.com/microsoft/qlib/blob/main/examples/benchmarks/LightGBM/workflow_config_lightgbm_Alpha158.yaml" target="_blank" rel="noopener"
 &gt;YAML 워크플로&lt;/a&gt;다. 이 형태가 &lt;strong&gt;LLM 에이전트가 호출하기 좋다&lt;/strong&gt; — 자연어 명령 하나가 YAML 한 장으로 매핑되고, 결과 메트릭(IC, Rank IC, IR, MDD)이 단일 JSON으로 떨어진다.&lt;/p&gt;
&lt;h2 id="4-llm-만나는-퀀트--rd-agent의-등장"&gt;4. LLM-만나는-퀀트 — RD-Agent의 등장
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/microsoft/RD-Agent" target="_blank" rel="noopener"
 &gt;RD-Agent&lt;/a&gt; (R&amp;amp;D-Agent)는 Microsoft가 2024년 8월 8일에 풀어 &lt;a class="link" href="https://arxiv.org/abs/2505.15155" target="_blank" rel="noopener"
 &gt;R&amp;amp;D-Agent-Quant 논문&lt;/a&gt;으로 정식화한 &lt;strong&gt;LLM 기반 자율 진화 에이전트&lt;/strong&gt; 프레임워크다. 이름은 일반적이지만 첫 사용처가 정확히 qlib 위의 &lt;strong&gt;알파 팩터 자동 마이닝&lt;/strong&gt;이다.&lt;/p&gt;
&lt;p&gt;흐름은 이렇다.&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;LLM이 금융 도메인 텍스트(논문, 리포트, 뉴스)를 읽고 &lt;strong&gt;팩터 가설&lt;/strong&gt;을 자연어로 제안&lt;/li&gt;
&lt;li&gt;그 가설을 &lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/data.html#feature-engineering" target="_blank" rel="noopener"
 &gt;qlib 표현식&lt;/a&gt;으로 컴파일&lt;/li&gt;
&lt;li&gt;qlib이 그 팩터를 데이터에 적용해 &lt;strong&gt;IC / Rank IC&lt;/strong&gt;를 계산&lt;/li&gt;
&lt;li&gt;성과가 좋은 팩터만 살아남고, 나머지는 LLM에게 피드백 → 다음 라운드&lt;/li&gt;
&lt;li&gt;모델 단에서도 비슷한 루프 — 하이퍼파라미터/아키텍처 탐색&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;이 구조가 흥미로운 건 LLM이 &lt;strong&gt;사람을 흉내내는 게 아니라 사람보다 무한히 많이 시도하는 자리&lt;/strong&gt;에 들어간다는 점이다. 인간 퀀트가 1주에 팩터 5–10개를 만들고 검증한다면, LLM 에이전트는 같은 시간에 수백 개를 돌린다. 백테스트의 &lt;strong&gt;bias-variance&lt;/strong&gt;를 인간이 머리로 추적하기 어려운 규모로 밀어붙인다.&lt;/p&gt;
&lt;p&gt;세 가지 &lt;a class="link" href="https://www.youtube.com/watch?v=X4DK2QZKaKY" target="_blank" rel="noopener"
 &gt;RD-Agent 데모 영상&lt;/a&gt;이 공식적으로 공개돼 있다 — Quant Factor Mining, Factor Mining from Reports, Quant Model Optimization. 세 시나리오 모두 같은 패턴 — LLM이 가설을 생성하고, qlib이 검증하고, 평가 신호가 다시 LLM에 들어간다.&lt;/p&gt;
&lt;h2 id="5-그래서-지금-qlib을-봐야-하는-이유"&gt;5. 그래서 지금 qlib을 봐야 하는 이유
&lt;/h2&gt;&lt;p&gt;세 가지 시그널이 겹친다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;첫째, 활동성이 살아 있다.&lt;/strong&gt; &lt;a class="link" href="https://github.com/microsoft/qlib/releases/tag/v0.9.7" target="_blank" rel="noopener"
 &gt;v0.9.7&lt;/a&gt;이 2025년 8월에 풀렸고, 메인 브랜치는 2026년 4월에도 푸시가 들어왔다. 같은 시기에 &lt;a class="link" href="https://github.com/quantopian/pyfolio" target="_blank" rel="noopener"
 &gt;pyfolio&lt;/a&gt;와 원본 &lt;a class="link" href="https://github.com/quantopian/zipline" target="_blank" rel="noopener"
 &gt;zipline&lt;/a&gt;은 사실상 동결 상태다. 활발한 오픈소스 퀀트 스택은 손에 꼽는다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;둘째, BPQP&lt;/strong&gt;(End-to-end learning) 같은 &lt;a class="link" href="https://github.com/microsoft/qlib/pull/1863" target="_blank" rel="noopener"
 &gt;under-review PR&lt;/a&gt;이 곧 들어온다. 포트폴리오 최적화의 &lt;strong&gt;2차 계획법 단계까지 미분 가능하게 만들어&lt;/strong&gt; 알파-투-포지션을 한 그래프로 학습할 수 있게 된다. 이건 그냥 라이브러리 업데이트가 아니라 &lt;strong&gt;포트폴리오 구성 자체가 학습 가능한 레이어&lt;/strong&gt;가 된다는 뜻이다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;셋째, LLM 도구화 경로가 명확하다.&lt;/strong&gt; RD-Agent는 qlib을 도구로 호출하고, 결과를 JSON으로 받고, 다음 가설을 만든다. 이 패턴은 &lt;a class="link" href="https://docs.claude.com/en/docs/agents-and-tools/tool-use/overview" target="_blank" rel="noopener"
 &gt;Anthropic의 tool use&lt;/a&gt;나 &lt;a class="link" href="https://platform.openai.com/docs/api-reference/responses" target="_blank" rel="noopener"
 &gt;OpenAI Responses API&lt;/a&gt;에 그대로 매핑된다. 즉, &lt;strong&gt;qlib YAML 워크플로 한 장 = LLM 함수 호출 한 번&lt;/strong&gt;이라는 단순한 등식이 성립한다.&lt;/p&gt;
&lt;h2 id="6-한계--데이터-그리고-데이터"&gt;6. 한계 — 데이터, 그리고 데이터
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://github.com/microsoft/qlib#data-preparation" target="_blank" rel="noopener"
 &gt;README 상단의 ⚠️&lt;/a&gt; — &amp;ldquo;Due to more restrict data security policy. The official dataset is disabled temporarily.&amp;rdquo; 공식 데이터셋이 일시 중단됐고, 커뮤니티 미러로 대체된다. 이게 qlib의 가장 큰 구조적 약점이다 — &lt;strong&gt;양질의 시계열 데이터는 공짜가 아니다&lt;/strong&gt;. Yahoo Finance는 분봉/실시간이 약하고, 중국 A주 데이터는 거래소 정책에 종속된다.&lt;/p&gt;
&lt;p&gt;상용 데이터로 가면 &lt;a class="link" href="https://www.bloomberg.com/professional/products/bloomberg-terminal/" target="_blank" rel="noopener"
 &gt;Bloomberg&lt;/a&gt;, &lt;a class="link" href="https://www.lseg.com/en/data-analytics" target="_blank" rel="noopener"
 &gt;Refinitiv&lt;/a&gt;, &lt;a class="link" href="https://wrds-www.wharton.upenn.edu/" target="_blank" rel="noopener"
 &gt;WRDS&lt;/a&gt;가 표준이지만 라이선스 비용이 만만치 않다. qlib의 &lt;a class="link" href="https://github.com/microsoft/qlib/pull/744" target="_blank" rel="noopener"
 &gt;Arctic backend&lt;/a&gt;나 &lt;a class="link" href="https://github.com/microsoft/qlib/pull/343" target="_blank" rel="noopener"
 &gt;Point-in-Time database&lt;/a&gt; 같은 모듈은 &lt;strong&gt;상용 데이터 파이프라인을 붙일 수 있도록&lt;/strong&gt; 설계됐지만, 그건 사용자가 해결해야 할 일이다. 오픈소스가 줄 수 있는 건 &lt;strong&gt;레일&lt;/strong&gt;까지다.&lt;/p&gt;
&lt;h2 id="인사이트"&gt;인사이트
&lt;/h2&gt;&lt;p&gt;qlib을 단독으로 보면 &amp;ldquo;잘 만든 시계열 ML 라이브러리&amp;rdquo; 정도지만, RD-Agent와 묶어서 보면 그림이 달라진다. LLM이 자연어로 팩터 가설을 만들고, qlib이 백테스트로 채점하고, 결과가 다시 LLM에 들어가는 &lt;strong&gt;자동 알파 마이닝 루프&lt;/strong&gt;가 production-grade 오픈소스로 처음 닿은 자리가 여기다. 이게 의미하는 건 두 가지다. 첫째, &lt;strong&gt;개인 퀀트의 진입 장벽이 다시 내려간다&lt;/strong&gt; — 박사급 시계열 ML 지식 없이도 LLM에게 &amp;ldquo;최근 3개월간 어닝 콜 텍스트에서 모멘텀 팩터를 만들어줘&amp;quot;라고 시키고 IC가 0.05 이상인 것만 통과시키는 워크플로를 짤 수 있다. 둘째, &lt;strong&gt;헤지펀드의 차별화 축이 다시 한 단계 위로 이동한다&lt;/strong&gt; — 팩터 발굴 자체가 자동화되면 차별화는 &lt;strong&gt;데이터(독점 대안 데이터셋)&lt;/strong&gt;, &lt;strong&gt;컴퓨트(에이전트 병렬화 규모)&lt;/strong&gt;, &lt;strong&gt;거버넌스(과적합 방지 메타-시스템)&lt;/strong&gt; 로 옮겨간다. qlib은 그 이동의 베이스라인이다. 2026년 한 해 동안 알파 마이닝 LLM 에이전트 + qlib 조합이 헤지펀드/리서치 그룹의 표준 셋업으로 빠르게 자리잡을 가능성이 높고, 한국 개인 개발자 입장에서 가장 빠른 시작점은 &lt;code&gt;pip install pyqlib&lt;/code&gt; → &lt;a class="link" href="https://github.com/chenditc/investment_data/releases" target="_blank" rel="noopener"
 &gt;chenditc/investment_data&lt;/a&gt;에서 데이터 받고 → &lt;a class="link" href="https://github.com/microsoft/qlib/blob/main/examples/benchmarks/LightGBM/workflow_config_lightgbm_Alpha158.yaml" target="_blank" rel="noopener"
 &gt;LightGBM Alpha158 워크플로&lt;/a&gt;를 &lt;code&gt;qrun&lt;/code&gt;으로 한 번 돌려보는 길이다. 한 줄짜리 명령으로 정보비(IR) 약 2.0 수준의 베이스라인이 나오는 게 출발점이다.&lt;/p&gt;
&lt;h2 id="참고"&gt;참고
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Repository and docs&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/microsoft/qlib" target="_blank" rel="noopener"
 &gt;microsoft/qlib GitHub 저장소&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://qlib.readthedocs.io/en/latest/" target="_blank" rel="noopener"
 &gt;qlib 공식 문서 (Read the Docs)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://pypi.org/project/pyqlib/" target="_blank" rel="noopener"
 &gt;PyPI — pyqlib&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/data.html" target="_blank" rel="noopener"
 &gt;Qlib 데이터 모듈 문서&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/workflow.html" target="_blank" rel="noopener"
 &gt;Qlib 워크플로 문서&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://qlib.readthedocs.io/en/latest/component/rl.html" target="_blank" rel="noopener"
 &gt;Qlib RL 컴포넌트&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/microsoft/qlib/releases/tag/v0.9.7" target="_blank" rel="noopener"
 &gt;Qlib v0.9.7 릴리스 노트&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Papers and related research&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2009.11189" target="_blank" rel="noopener"
 &gt;Qlib: An AI-oriented Quantitative Investment Platform (arXiv:2009.11189)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2505.15155" target="_blank" rel="noopener"
 &gt;R&amp;amp;D-Agent-Quant 논문 (arXiv:2505.15155)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2110.13716" target="_blank" rel="noopener"
 &gt;HIST 시계열 모델 논문 (arXiv:2110.13716)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2201.04038" target="_blank" rel="noopener"
 &gt;DDG-DA 논문 (arXiv:2201.04038)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2106.12950" target="_blank" rel="noopener"
 &gt;TRA 시계열 라우팅 논문 (arXiv:2106.12950)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2108.04443" target="_blank" rel="noopener"
 &gt;ADARNN 논문 (arXiv:2108.04443)&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;LLM-meets-quant ecosystem&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/microsoft/RD-Agent" target="_blank" rel="noopener"
 &gt;microsoft/RD-Agent GitHub&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://www.youtube.com/watch?v=X4DK2QZKaKY" target="_blank" rel="noopener"
 &gt;RD-Agent Quant Factor Mining 데모&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://docs.claude.com/en/docs/agents-and-tools/tool-use/overview" target="_blank" rel="noopener"
 &gt;Anthropic tool use 가이드&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://platform.openai.com/docs/api-reference/responses" target="_blank" rel="noopener"
 &gt;OpenAI Responses API&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Comparable open-source stacks&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/stefan-jansen/zipline-reloaded" target="_blank" rel="noopener"
 &gt;zipline-reloaded&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/quantopian/pyfolio" target="_blank" rel="noopener"
 &gt;pyfolio&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://vectorbt.dev/" target="_blank" rel="noopener"
 &gt;vectorbt&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://www.backtrader.com/" target="_blank" rel="noopener"
 &gt;backtrader&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/chenditc/investment_data" target="_blank" rel="noopener"
 &gt;chenditc/investment_data 미러&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>