<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Llm Evaluation on ICE-ICE-BEAR-BLOG</title><link>https://ice-ice-bear.github.io/ko/tags/llm-evaluation/</link><description>Recent content in Llm Evaluation on ICE-ICE-BEAR-BLOG</description><generator>Hugo -- gohugo.io</generator><language>ko</language><lastBuildDate>Thu, 14 May 2026 00:00:00 +0900</lastBuildDate><atom:link href="https://ice-ice-bear.github.io/ko/tags/llm-evaluation/index.xml" rel="self" type="application/rss+xml"/><item><title>90% 할인 클로드의 정체 — 모델 신뢰성을 수학이 아니라 경제학으로 따져야 하는 이유</title><link>https://ice-ice-bear.github.io/ko/posts/2026-05-14-model-performance-economics/</link><pubDate>Thu, 14 May 2026 00:00:00 +0900</pubDate><guid>https://ice-ice-bear.github.io/ko/posts/2026-05-14-model-performance-economics/</guid><description>&lt;img src="https://ice-ice-bear.github.io/" alt="Featured image of post 90% 할인 클로드의 정체 — 모델 신뢰성을 수학이 아니라 경제학으로 따져야 하는 이유" /&gt;&lt;h2 id="개요"&gt;개요
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://www.anthropic.com/api" target="_blank" rel="noopener"
 &gt;Claude API&lt;/a&gt;를 정가의 10% 가격에 판다는 중국발 프록시 시장이 드러났다. 표면은 단순한 가격 차익 거래처럼 보이지만, 한 꺼풀 벗기면 성능 저하와 &lt;a class="link" href="https://en.wikipedia.org/wiki/Prompt_engineering" target="_blank" rel="noopener"
 &gt;프롬프트&lt;/a&gt; 데이터 탈취가 묶인 파이프라인이다. 이 사건이 흥미로운 이유는 따로 있다 — &lt;strong&gt;&amp;ldquo;모델 성능을 보장하라&amp;quot;는 요구에 답하려면 대화의 단위를 수학에서 경제학으로 옮겨야 한다&lt;/strong&gt;는 점을 가장 선명하게 보여주는 사례이기 때문이다.&lt;/p&gt;
&lt;pre class="mermaid" style="visibility:hidden"&gt;graph TD
 Price["표면 신호: &amp;lt;br/&amp;gt; 90% 할인 가격표"]
 Price --&gt; Q1["품질 저하 &amp;lt;br/&amp;gt; (모델 바꿔치기)"]
 Price --&gt; Q2["데이터 탈취 &amp;lt;br/&amp;gt; (프롬프트/추론체인 수집)"]
 Price --&gt; Q3["IP 노출 &amp;lt;br/&amp;gt; (소스코드/인증정보 유출)"]
 Q1 --&gt; Econ["진짜 회계 단위: &amp;lt;br/&amp;gt; 수학적 보증이 아니라 경제적 기대값"]
 Q2 --&gt; Econ
 Q3 --&gt; Econ
 Econ --&gt; SLA["대응: 신뢰성을 &amp;lt;br/&amp;gt; 계약/SLA로 가격화"]&lt;/pre&gt;&lt;h2 id="사건의-구조--싸다는-신호-아래-무엇이-있었나"&gt;사건의 구조 — &amp;ldquo;싸다&amp;quot;는 신호 아래 무엇이 있었나
&lt;/h2&gt;&lt;p&gt;&lt;a class="link" href="https://www.kmjournal.net/news/articleView.html?idxno=11241" target="_blank" rel="noopener"
 &gt;코리아매니지먼트저널의 보도&lt;/a&gt;에 따르면, GitHub·Telegram·Taobao 같은 채널에서 Claude API가 정가 대비 약 90% 할인된 가격에 재판매되고 있었다. 할인의 출처는 정상적인 공급망이 아니다. 무료 체험 계정의 대량 생성, 도난당한 신용카드로 만든 구독, &lt;a class="link" href="https://www.anthropic.com/pricing" target="_blank" rel="noopener"
 &gt;Max 등급&lt;/a&gt; 계정 하나($200/월)를 여러 명이 쪼개 쓰는 방식, 그리고 가장 교묘한 &lt;strong&gt;모델 바꿔치기&lt;/strong&gt; — 사용자는 &lt;a class="link" href="https://www.anthropic.com/claude/opus" target="_blank" rel="noopener"
 &gt;Claude Opus&lt;/a&gt;를 호출했다고 믿지만 실제로는 더 싼 &lt;a class="link" href="https://www.anthropic.com/claude/haiku" target="_blank" rel="noopener"
 &gt;Haiku&lt;/a&gt;나 오픈웨이트 모델의 응답을 받는다.&lt;/p&gt;
&lt;p&gt;핵심 수치는 &lt;a class="link" href="https://cispa.de/en" target="_blank" rel="noopener"
 &gt;CISPA 헬름홀츠 정보보안센터&lt;/a&gt;가 17개 프록시 서비스를 분석한 결과에서 나온다. 공식 API가 의료 &lt;a class="link" href="https://en.wikipedia.org/wiki/Benchmark_%28computing%29" target="_blank" rel="noopener"
 &gt;벤치마크&lt;/a&gt;에서 약 84% 정확도를 낸 반면, 프록시를 거치면 약 37%로 떨어졌다. &lt;strong&gt;같은 가격표, 같은 API 형태, 절반 이하의 실질 성능.&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;그리고 더 깊은 층 — 데이터 탈취. 프록시 운영자는 사용자의 프롬프트, 모델 응답, 그리고 &lt;a class="link" href="https://en.wikipedia.org/wiki/Prompt_engineering#Chain-of-thought" target="_blank" rel="noopener"
 &gt;chain-of-thought&lt;/a&gt; 추론 체인을 수집해 학습 데이터셋으로 재포장한다. 옥스퍼드 중국정책연구소의 Zhilan Chen 연구원은 이를 &amp;ldquo;API 프록시 경제(API Proxy Economy)&amp;ldquo;라 부른다. &lt;a class="link" href="https://www.anthropic.com/" target="_blank" rel="noopener"
 &gt;Anthropic&lt;/a&gt;은 2026년 2월 약 24,000개의 부정 계정이 1,600만 건 이상의 쿼리를 생성한 것을 탐지했다고 보고했고, &lt;a class="link" href="https://en.wikipedia.org/wiki/DeepSeek" target="_blank" rel="noopener"
 &gt;DeepSeek&lt;/a&gt;이 수천 개의 부정 계정으로 Claude와 수백만 건의 대화를 만들어 자사 모델 학습에 썼다고 지목한 바 있다.&lt;/p&gt;
&lt;h2 id="왜-수학적-보장은-처음부터-불가능했나"&gt;왜 수학적 보장은 처음부터 불가능했나
&lt;/h2&gt;&lt;p&gt;&amp;ldquo;모델 성능을 100% 보장하라&amp;quot;는 요구는 직관적으로 합당해 보인다. 하지만 &lt;a class="link" href="https://en.wikipedia.org/wiki/Large_language_model" target="_blank" rel="noopener"
 &gt;LLM&lt;/a&gt;의 출력은 본질적으로 &lt;a class="link" href="https://en.wikipedia.org/wiki/Stochastic" target="_blank" rel="noopener"
 &gt;확률적&lt;/a&gt;이다. &lt;a class="link" href="https://en.wikipedia.org/wiki/Softmax_function" target="_blank" rel="noopener"
 &gt;temperature&lt;/a&gt; 샘플링, 컨텍스트 의존성, &lt;a class="link" href="https://en.wikipedia.org/wiki/Hallucination_%28artificial_intelligence%29" target="_blank" rel="noopener"
 &gt;할루시네이션&lt;/a&gt;의 잔존 확률 — 어떤 단일 모델도 임의의 입력에 대해 정답률 1.0을 수학적으로 증명할 수 없다. &lt;a class="link" href="https://en.wikipedia.org/wiki/Benchmark_%28computing%29" target="_blank" rel="noopener"
 &gt;벤치마크&lt;/a&gt; 점수는 분포에 대한 추정치이지 보증서가 아니다. &lt;a class="link" href="https://en.wikipedia.org/wiki/MMLU" target="_blank" rel="noopener"
 &gt;MMLU&lt;/a&gt;에서 90%라는 숫자는 &amp;ldquo;이 데이터셋 분포에서 10번 중 1번은 틀린다&amp;quot;는 뜻이지, &amp;ldquo;당신의 다음 질문은 맞다&amp;quot;는 약속이 아니다.&lt;/p&gt;
&lt;p&gt;이 사건은 그 한계를 악용한다. 프록시 사용자는 84%짜리 모델을 샀다고 믿었지만 37%짜리를 받았고, &lt;strong&gt;그 차이를 스스로 측정할 방법이 없었다.&lt;/strong&gt; 수학적으로 &amp;ldquo;성능&amp;quot;을 정의해 보장받으려는 시도는 두 군데서 무너진다. 첫째, 보장의 대상(분포 전체)과 사용자가 신경 쓰는 것(내 다음 쿼리)이 다르다. 둘째, 공급망 중간에서 모델이 바꿔치기되면 사용자가 측정하는 숫자 자체가 신뢰할 수 없게 된다. 수학은 모델 카드 위에서는 작동하지만, 모델 카드와 사용자 사이의 &lt;a class="link" href="https://en.wikipedia.org/wiki/Supply_chain" target="_blank" rel="noopener"
 &gt;공급망&lt;/a&gt; 위에서는 작동하지 않는다.&lt;/p&gt;
&lt;h2 id="대화의-단위를-경제학으로-옮기면"&gt;대화의 단위를 경제학으로 옮기면
&lt;/h2&gt;&lt;p&gt;수학이 &amp;ldquo;이 모델은 얼마나 정확한가&amp;quot;를 묻는다면, 경제학은 &amp;ldquo;이 모델을 신뢰했다가 틀렸을 때 누가 얼마를 잃는가, 그리고 그 위험을 어떻게 가격화하는가&amp;quot;를 묻는다. 이 질문이 90% 할인 사건에 훨씬 잘 들어맞는다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;기대값으로 본 할인.&lt;/strong&gt; 정가의 10%라는 가격은 공짜 점심이 아니라 &lt;a class="link" href="https://en.wikipedia.org/wiki/Expected_value" target="_blank" rel="noopener"
 &gt;기대값&lt;/a&gt; 계산의 한 변수다. 절약한 90%의 비용에 맞서, 절반으로 떨어진 정확도로 인한 의사결정 오류 비용, 프롬프트가 경쟁 모델 학습에 흘러 들어가는 전략적 손실, 소스코드·&lt;a class="link" href="https://en.wikipedia.org/wiki/API_key" target="_blank" rel="noopener"
 &gt;API 키&lt;/a&gt;·&lt;a class="link" href="https://en.wikipedia.org/wiki/Credential" target="_blank" rel="noopener"
 &gt;인증 정보&lt;/a&gt;가 검증되지 않은 서버에 노출되는 &lt;a class="link" href="https://en.wikipedia.org/wiki/Industrial_espionage" target="_blank" rel="noopener"
 &gt;기업 스파이&lt;/a&gt; 리스크가 반대편에 놓인다. 경제학의 언어로 보면 &amp;ldquo;90% 할인&amp;quot;은 가격이 아니라 &lt;strong&gt;숨겨진 비용을 미래로 이연시킨 부채&lt;/strong&gt;다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Information_asymmetry" target="_blank" rel="noopener"
 &gt;정보 비대칭&lt;/a&gt;과 레몬 시장.&lt;/strong&gt; 프록시 시장은 &lt;a class="link" href="https://en.wikipedia.org/wiki/The_Market_for_Lemons" target="_blank" rel="noopener"
 &gt;조지 애컬로프의 레몬 시장&lt;/a&gt;의 교과서적 재현이다. 판매자는 자기가 파는 게 Opus인지 Haiku인지 알지만 구매자는 모른다. 품질을 검증할 수 없으면 시장은 가격으로만 경쟁하고, 좋은 품질은 시장에서 밀려난다. 해법도 애컬로프가 제시한 것과 같다 — 신호(signaling)와 검증. 즉 공식 API의 &lt;a class="link" href="https://en.wikipedia.org/wiki/System_and_Organization_Controls" target="_blank" rel="noopener"
 &gt;SOC 2&lt;/a&gt; 같은 인증, 감사 가능한 로그, 그리고 계약.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Service-level_agreement" target="_blank" rel="noopener"
 &gt;SLA&lt;/a&gt;라는 번역기.&lt;/strong&gt; &lt;a class="link" href="https://en.wikipedia.org/wiki/Service-level_agreement" target="_blank" rel="noopener"
 &gt;서비스 수준 협약&lt;/a&gt;은 정확히 이 번역을 하는 도구다. SLA는 &amp;ldquo;100% 정확&amp;quot;을 약속하지 않는다. 대신 가용성·응답시간·품질 지표를 측정 가능한 목표로 정의하고, 위반 시 환불·계약 해지 같은 &lt;strong&gt;금전적 결과&lt;/strong&gt;를 명시한다. 추상적인 &amp;ldquo;성능 보장&amp;quot;을 구체적이고 강제 가능한 경제적 약속으로 바꾸는 것이다. 모델이 확률적으로 틀릴 수 있다는 사실은 그대로 두되, 그 위험을 누가 떠안고 어떻게 보상하는지를 계약으로 정한다.&lt;/p&gt;
&lt;h2 id="프로덕션-ai에-주는-함의"&gt;프로덕션 AI에 주는 함의
&lt;/h2&gt;&lt;p&gt;이 사건은 단순한 사기 사례 이상이다. &lt;a class="link" href="https://en.wikipedia.org/wiki/MLOps" target="_blank" rel="noopener"
 &gt;프로덕션 AI&lt;/a&gt;를 운영하는 모든 팀에게 세 가지를 강제한다.&lt;/p&gt;
&lt;p&gt;첫째, &lt;strong&gt;공급망 출처(provenance)가 모델 카드보다 먼저다.&lt;/strong&gt; 어떤 벤치마크 점수도 그 모델이 실제로 그 모델이라는 보장 없이는 의미가 없다. &lt;a class="link" href="https://en.wikipedia.org/wiki/Model_extraction" target="_blank" rel="noopener"
 &gt;모델 추출 공격&lt;/a&gt;과 바꿔치기가 가능한 세계에서, &amp;ldquo;어떤 모델인가&amp;quot;보다 &amp;ldquo;이 응답이 내가 계약한 그 경로에서 왔는가&amp;quot;가 먼저 검증돼야 한다.&lt;/p&gt;
&lt;p&gt;둘째, &lt;strong&gt;신뢰성 예산을 돈으로 환산하라.&lt;/strong&gt; 내부적으로 &amp;ldquo;이 워크플로우가 5% 틀리면 우리는 얼마를 잃는가&amp;quot;를 계산해 두면, 어떤 모델·어떤 가격·어떤 SLA를 살지가 신앙이 아니라 산수 문제가 된다. &lt;a class="link" href="https://www.anthropic.com/pricing" target="_blank" rel="noopener"
 &gt;Anthropic&lt;/a&gt;·&lt;a class="link" href="https://openai.com/api/" target="_blank" rel="noopener"
 &gt;OpenAI&lt;/a&gt;·&lt;a class="link" href="https://ai.google.dev/" target="_blank" rel="noopener"
 &gt;Google&lt;/a&gt; 같은 1차 공급자의 정가가 비싸 보일 때, 그 가격에 포함된 것은 토큰만이 아니라 출처 보증과 데이터 비유출 약속이다.&lt;/p&gt;
&lt;p&gt;셋째, &lt;strong&gt;데이터 유출은 일회성 비용이 아니라 전략적 자산 이전이다.&lt;/strong&gt; 프롬프트와 추론 체인이 경쟁 모델 학습에 쓰이면, 그것은 한 번의 정보 유출이 아니라 &lt;a class="link" href="https://en.wikipedia.org/wiki/Knowledge_distillation" target="_blank" rel="noopener"
 &gt;지식 증류&lt;/a&gt;를 통한 능력의 영구적 이전이다. 경제학의 언어로는 일회성 손실이 아니라 &lt;a class="link" href="https://en.wikipedia.org/wiki/Capital_flight" target="_blank" rel="noopener"
 &gt;자본 유출&lt;/a&gt;에 가깝다.&lt;/p&gt;
&lt;h2 id="인사이트"&gt;인사이트
&lt;/h2&gt;&lt;p&gt;90% 할인 클로드 사건의 진짜 교훈은 &amp;ldquo;싼 데는 이유가 있다&amp;quot;는 상식이 아니다. &lt;strong&gt;모델 신뢰성이라는 문제가 수학적 보증의 영역에 머무는 한 답이 나오지 않는다&lt;/strong&gt;는 것이다. LLM은 확률적이고, 벤치마크는 분포의 추정치이며, 공급망은 모델 카드가 보증하지 않는 영역이다. &amp;ldquo;100% 보장하라&amp;quot;는 요구는 수학적으로는 영원히 충족 불가능하다. 그래서 성숙한 답은 보장의 단위를 바꾸는 것이다 — 정답률이라는 수학적 양에서, 기대값·정보 비대칭·계약 가능한 위험이라는 경제적 양으로.&lt;/p&gt;
&lt;p&gt;이 전환은 패배 선언이 아니라 도구의 교체다. 경제학은 불확실성을 다루는 데 수학적 증명보다 훨씬 오래된 도구를 갖고 있다 — 보험, 계약, 신호, 평판, 감사. SLA가 가용성을 다루는 방식 그대로 품질과 출처를 다루면, &amp;ldquo;모델이 틀릴 수 있다&amp;quot;는 사실은 받아들이되 &amp;ldquo;그 위험을 누가 얼마에 떠안는가&amp;quot;는 명시할 수 있다. 90% 할인이라는 가격표가 위험한 이유도 바로 여기 있다 — 그것은 수학적으로는 매력적인 숫자처럼 보이지만, 경제학적으로는 측정되지 않은 부채를 미래로 떠넘기는 계약이기 때문이다. 프로덕션 AI를 운영하는 팀이 다음 분기에 던져야 할 질문은 &amp;ldquo;어떤 모델이 가장 정확한가&amp;quot;가 아니라 &amp;ldquo;우리의 신뢰성 예산은 얼마이고, 그것을 누구와 어떤 계약으로 사고 있는가&amp;quot;다.&lt;/p&gt;
&lt;h2 id="참고"&gt;참고
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;원 사건 보도&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://www.kmjournal.net/news/articleView.html?idxno=11241" target="_blank" rel="noopener"
 &gt;코리아매니지먼트저널 — Claude 90% 할인 프록시의 정체&lt;/a&gt; — 이 글이 다룬 1차 보도&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://cispa.de/en" target="_blank" rel="noopener"
 &gt;CISPA Helmholtz Center for Information Security&lt;/a&gt; — 17개 프록시 서비스의 성능 저하를 분석한 독일 정보보안 연구기관&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://www.anthropic.com/" target="_blank" rel="noopener"
 &gt;Anthropic&lt;/a&gt; — Claude 공급자, 부정 계정 탐지 보고의 출처&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/DeepSeek" target="_blank" rel="noopener"
 &gt;DeepSeek (Wikipedia)&lt;/a&gt; — Anthropic이 Claude 대화 데이터 무단 사용을 지목한 중국 AI 기업&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;배경 개념 — 평가와 신뢰성&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Large_language_model" target="_blank" rel="noopener"
 &gt;Large language model&lt;/a&gt; · &lt;a class="link" href="https://en.wikipedia.org/wiki/Hallucination_%28artificial_intelligence%29" target="_blank" rel="noopener"
 &gt;Hallucination (AI)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Benchmark_%28computing%29" target="_blank" rel="noopener"
 &gt;Benchmark (computing)&lt;/a&gt; · &lt;a class="link" href="https://en.wikipedia.org/wiki/MMLU" target="_blank" rel="noopener"
 &gt;MMLU&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Stochastic" target="_blank" rel="noopener"
 &gt;Stochastic process&lt;/a&gt; · &lt;a class="link" href="https://en.wikipedia.org/wiki/Softmax_function" target="_blank" rel="noopener"
 &gt;Softmax / temperature&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Model_extraction" target="_blank" rel="noopener"
 &gt;Model extraction&lt;/a&gt; · &lt;a class="link" href="https://en.wikipedia.org/wiki/Knowledge_distillation" target="_blank" rel="noopener"
 &gt;Knowledge distillation&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;배경 개념 — 위험의 경제학&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Expected_value" target="_blank" rel="noopener"
 &gt;Expected value&lt;/a&gt; — 할인을 기대값의 한 변수로 보는 틀&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/The_Market_for_Lemons" target="_blank" rel="noopener"
 &gt;The Market for Lemons&lt;/a&gt; · &lt;a class="link" href="https://en.wikipedia.org/wiki/Information_asymmetry" target="_blank" rel="noopener"
 &gt;Information asymmetry&lt;/a&gt; — 검증 불가능한 품질이 시장을 무너뜨리는 메커니즘&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Service-level_agreement" target="_blank" rel="noopener"
 &gt;Service-level agreement&lt;/a&gt; — 추상적 성능 보장을 경제적 계약으로 번역하는 도구&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/Industrial_espionage" target="_blank" rel="noopener"
 &gt;Industrial espionage&lt;/a&gt; · &lt;a class="link" href="https://en.wikipedia.org/wiki/Capital_flight" target="_blank" rel="noopener"
 &gt;Capital flight&lt;/a&gt; — 데이터 유출을 전략적 자산 이전으로 보는 관점&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://en.wikipedia.org/wiki/MLOps" target="_blank" rel="noopener"
 &gt;MLOps&lt;/a&gt; · &lt;a class="link" href="https://en.wikipedia.org/wiki/System_and_Organization_Controls" target="_blank" rel="noopener"
 &gt;SOC 2&lt;/a&gt; — 공급망 출처 검증의 실무 도구&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;1차 공급자 가격 정보&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://www.anthropic.com/pricing" target="_blank" rel="noopener"
 &gt;Anthropic API pricing&lt;/a&gt; · &lt;a class="link" href="https://openai.com/api/" target="_blank" rel="noopener"
 &gt;OpenAI API&lt;/a&gt; · &lt;a class="link" href="https://ai.google.dev/" target="_blank" rel="noopener"
 &gt;Google AI for Developers&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>