<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Searxng on ICE-ICE-BEAR-BLOG</title><link>https://ice-ice-bear.github.io/ko/tags/searxng/</link><description>Recent content in Searxng on ICE-ICE-BEAR-BLOG</description><generator>Hugo -- gohugo.io</generator><language>ko</language><lastBuildDate>Tue, 07 Apr 2026 00:00:00 +0900</lastBuildDate><atom:link href="https://ice-ice-bear.github.io/ko/tags/searxng/index.xml" rel="self" type="application/rss+xml"/><item><title>무료 프라이빗 AI 어시스턴트 구축 — Gemma 4 + SearXNG + OpenClaw 설정 가이드</title><link>https://ice-ice-bear.github.io/ko/posts/2026-04-07-gemma4-openclaw/</link><pubDate>Tue, 07 Apr 2026 00:00:00 +0900</pubDate><guid>https://ice-ice-bear.github.io/ko/posts/2026-04-07-gemma4-openclaw/</guid><description>&lt;img src="https://ice-ice-bear.github.io/" alt="Featured image of post 무료 프라이빗 AI 어시스턴트 구축 — Gemma 4 + SearXNG + OpenClaw 설정 가이드" /&gt;&lt;h2 id="개요"&gt;개요
&lt;/h2&gt;&lt;p&gt;Google이 Gemma 4를 공개했습니다. 유료 서비스인 Gemini 3, 이미지 생성 모델 Nano Banana와 같은 계열의 오픈소스 모델입니다. 여기에 프라이빗 웹 검색 엔진 SearXNG와 에이전트 오케스트레이터 OpenClaw를 결합하면, 클라우드 AI에 버금가는 완전 셀프 호스팅 AI 어시스턴트를 무료로, 데이터 유출 없이 구축할 수 있습니다.&lt;/p&gt;
&lt;p&gt;이 글에서는 Gemma 4 모델 선택부터 SearXNG 로컬 실행, OpenClaw 연동까지 전체 셋업 과정을 정리합니다.&lt;/p&gt;
&lt;h2 id="gemma-4-모델-라인업"&gt;Gemma 4 모델 라인업
&lt;/h2&gt;&lt;p&gt;Google이 새로 공개한 Gemma 4는 크기와 멀티모달 지원 범위에 따라 두 그룹으로 나뉩니다.&lt;/p&gt;
&lt;h3 id="소형-모델-모바일-구동-가능"&gt;소형 모델 (모바일 구동 가능)
&lt;/h3&gt;&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;모델&lt;/th&gt;
 &lt;th&gt;파라미터&lt;/th&gt;
 &lt;th&gt;지원 모달리티&lt;/th&gt;
 &lt;th&gt;대상 하드웨어&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;E2B&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;~2B&lt;/td&gt;
 &lt;td&gt;텍스트, 이미지, 비디오, 오디오&lt;/td&gt;
 &lt;td&gt;모바일&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;E4B&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;~4B&lt;/td&gt;
 &lt;td&gt;텍스트, 이미지, 비디오, 오디오&lt;/td&gt;
 &lt;td&gt;모바일&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;h3 id="대형-모델-데스크탑서버"&gt;대형 모델 (데스크탑/서버)
&lt;/h3&gt;&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;모델&lt;/th&gt;
 &lt;th&gt;파라미터&lt;/th&gt;
 &lt;th&gt;지원 모달리티&lt;/th&gt;
 &lt;th&gt;대상 하드웨어&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;26B&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;~26B&lt;/td&gt;
 &lt;td&gt;텍스트, 이미지&lt;/td&gt;
 &lt;td&gt;데스크탑 GPU, 서버&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;31B&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;~31B&lt;/td&gt;
 &lt;td&gt;텍스트, 이미지&lt;/td&gt;
 &lt;td&gt;데스크탑 GPU, 서버&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;소형 모델인 E2B와 E4B는 텍스트, 이미지, 비디오, 오디오를 모두 처리할 수 있다는 점이 인상적입니다. 대형 모델은 오디오/비디오를 포기하는 대신 텍스트와 이미지 추론 능력이 더 깊습니다.&lt;/p&gt;
&lt;p&gt;OpenClaw의 에이전트 도구 호출 워크플로에서는 &lt;strong&gt;E4B 모델&lt;/strong&gt;이 가장 균형 잡힌 선택입니다. 4B 파라미터임에도 구조화된 함수 호출과 다단계 추론을 꽤 안정적으로 수행합니다. VRAM 여유가 있다면 26B나 31B가 더 좋겠지만, 대부분의 환경에서는 E4B가 가성비 최적입니다.&lt;/p&gt;
&lt;h2 id="아키텍처-전체-구성도"&gt;아키텍처: 전체 구성도
&lt;/h2&gt;&lt;pre class="mermaid" style="visibility:hidden"&gt;graph TD
 User["사용자 질의"] --&gt; OpenClaw["OpenClaw &amp;lt;br/&amp;gt; 에이전트 오케스트레이터"]
 OpenClaw --&gt; Gemma["Gemma 4 모델 &amp;lt;br/&amp;gt; 로컬 추론"]
 OpenClaw --&gt; SearXNG["SearXNG &amp;lt;br/&amp;gt; 프라이빗 웹 검색"]
 Gemma --&gt; ToolCall["도구 호출 판단"]
 ToolCall --&gt; SearXNG
 SearXNG --&gt; Results["검색 결과 &amp;lt;br/&amp;gt; 데이터 외부 유출 없음"]
 Results --&gt; Gemma
 Gemma --&gt; Response["최종 응답"]
 Response --&gt; User

 style OpenClaw fill:#4a9eff,stroke:#333,color:#fff
 style Gemma fill:#34a853,stroke:#333,color:#fff
 style SearXNG fill:#ff6d3a,stroke:#333,color:#fff&lt;/pre&gt;&lt;p&gt;동작 흐름은 다음과 같습니다:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;사용자&lt;/strong&gt;가 OpenClaw에 질의를 보냅니다&lt;/li&gt;
&lt;li&gt;OpenClaw가 로컬에서 돌아가는 &lt;strong&gt;Gemma 4&lt;/strong&gt; 모델에 질의를 전달합니다&lt;/li&gt;
&lt;li&gt;Gemma 4가 웹 검색이 필요한지 판단하여 SearXNG에 &lt;strong&gt;도구 호출&lt;/strong&gt;을 보냅니다&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;SearXNG&lt;/strong&gt;가 검색을 완전히 로컬에서 실행합니다 — 사용자 질의가 제3자 API에 전송되지 않습니다&lt;/li&gt;
&lt;li&gt;검색 결과가 Gemma 4에 다시 전달되어 종합됩니다&lt;/li&gt;
&lt;li&gt;최종 응답이 사용자에게 반환됩니다&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;전 과정에서 데이터가 외부로 나가지 않습니다. SearXNG는 메타 검색 엔진 프록시 역할을 하고, Gemma 4는 전적으로 로컬 하드웨어에서 실행됩니다.&lt;/p&gt;
&lt;h2 id="1단계-gemma-4-모델-로컬-실행"&gt;1단계: Gemma 4 모델 로컬 실행
&lt;/h2&gt;&lt;p&gt;로컬 추론 서버로 &lt;strong&gt;Ollama&lt;/strong&gt;가 가장 간편합니다:&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# Ollama 설치 (macOS/Linux)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;curl -fsSL https://ollama.com/install.sh &lt;span class="p"&gt;|&lt;/span&gt; sh
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# E4B 모델 다운로드 (대부분의 환경에 권장)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;ollama pull gemma4:e4b
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# VRAM 16GB 이상이면 27B 모델도 가능&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;ollama pull gemma4:27b
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# 확인&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;ollama list
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;Ollama는 기본적으로 &lt;code&gt;http://localhost:11434&lt;/code&gt;에서 OpenAI 호환 API를 제공합니다. OpenClaw에서 바로 연결할 수 있습니다.&lt;/p&gt;
&lt;h3 id="vram-요구-사항"&gt;VRAM 요구 사항
&lt;/h3&gt;&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;모델&lt;/th&gt;
 &lt;th&gt;양자화&lt;/th&gt;
 &lt;th&gt;최소 VRAM&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;E2B&lt;/td&gt;
 &lt;td&gt;Q4_K_M&lt;/td&gt;
 &lt;td&gt;~2 GB&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;E4B&lt;/td&gt;
 &lt;td&gt;Q4_K_M&lt;/td&gt;
 &lt;td&gt;~3 GB&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;26B&lt;/td&gt;
 &lt;td&gt;Q4_K_M&lt;/td&gt;
 &lt;td&gt;~16 GB&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;31B&lt;/td&gt;
 &lt;td&gt;Q4_K_M&lt;/td&gt;
 &lt;td&gt;~20 GB&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Apple Silicon Mac의 통합 메모리는 VRAM으로 사용됩니다. 16GB M 시리즈 Mac이면 E4B는 여유 있게, 26B도 공격적 양자화를 적용하면 구동할 수 있습니다.&lt;/p&gt;
&lt;h2 id="2단계-searxng로-프라이빗-검색-구성"&gt;2단계: SearXNG로 프라이빗 검색 구성
&lt;/h2&gt;&lt;p&gt;SearXNG는 무료 오픈소스 메타 검색 엔진입니다. Google, Bing, DuckDuckGo 등의 결과를 수집하면서도 사용자의 검색어를 추적 가능한 형태로 외부에 노출하지 않습니다.&lt;/p&gt;
&lt;p&gt;Docker로 가장 쉽게 배포할 수 있습니다:&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# SearXNG Docker 설정 클론&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;git clone https://github.com/searxng/searxng-docker.git
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="nb"&gt;cd&lt;/span&gt; searxng-docker
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# 환경 변수 설정&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;cp .env.example .env
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c1"&gt;# SearXNG 시작&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;docker compose up -d
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;&lt;code&gt;http://localhost:8080&lt;/code&gt;에서 SearXNG에 접속할 수 있습니다.&lt;/p&gt;
&lt;h3 id="핵심-설정-json-api-활성화"&gt;핵심 설정: JSON API 활성화
&lt;/h3&gt;&lt;p&gt;OpenClaw가 SearXNG를 도구로 사용하려면 JSON API가 필요합니다. &lt;code&gt;searxng/settings.yml&lt;/code&gt;을 수정합니다:&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-yaml" data-lang="yaml"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="nt"&gt;server&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;secret_key&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="s2"&gt;&amp;#34;랜덤-시크릿-키&amp;#34;&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;limiter&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="kc"&gt;false&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="c"&gt;# 로컬 전용이므로 속도 제한 비활성화&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="nt"&gt;search&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;formats&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;- &lt;span class="l"&gt;html&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;- &lt;span class="l"&gt;json &lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="c"&gt;# API 접근에 필요&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;수정 후 컨테이너를 재시작합니다:&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;docker compose restart
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;h2 id="3단계-openclaw에-연동"&gt;3단계: OpenClaw에 연동
&lt;/h2&gt;&lt;p&gt;OpenClaw 설정에서 로컬 Gemma 4와 SearXNG를 연결합니다:&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-yaml" data-lang="yaml"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="c"&gt;# openclaw 설정&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="nt"&gt;llm&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="l"&gt;ollama&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;model&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="l"&gt;gemma4:e4b&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;base_url&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="l"&gt;http://localhost:11434&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="nt"&gt;tools&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;web_search&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="l"&gt;searxng&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;base_url&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="l"&gt;http://localhost:8080&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;format&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="l"&gt;json&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nt"&gt;categories&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;- &lt;span class="l"&gt;general&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;- &lt;span class="l"&gt;news&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="w"&gt; &lt;/span&gt;- &lt;span class="l"&gt;science&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;설정 완료 후 OpenClaw를 실행하면 웹 검색이 가능한 AI 어시스턴트가 완전 셀프 호스팅으로 동작합니다.&lt;/p&gt;
&lt;h2 id="실사용-소감"&gt;실사용 소감
&lt;/h2&gt;&lt;p&gt;이 구성으로 실제 사용해보면 몇 가지 주목할 점이 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;E4B의 도구 호출 능력이 의외로 뛰어납니다.&lt;/strong&gt; 4B 파라미터 모델치고는 에이전트 워크플로를 잘 처리합니다. 검색이 필요한 시점을 정확히 판단하고, 합리적인 검색 쿼리를 생성하며, 결과를 일관성 있게 종합합니다. GPT-4o나 Claude 수준은 아니지만, 무료 로컬 모델로서는 인상적인 품질입니다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;SearXNG 응답 속도는 실용적입니다.&lt;/strong&gt; 검색 쿼리 응답은 보통 1~3초입니다. 병목은 대개 검색이 아니라 LLM 추론 쪽에 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;프라이버시는 실제로 보장됩니다.&lt;/strong&gt; 세션 중 &lt;code&gt;tcpdump&lt;/code&gt;를 실행해보면 질의 데이터가 외부 AI API로 전송되지 않는 것을 확인할 수 있습니다. SearXNG는 검색 엔진에 아웃바운드 요청을 하지만, 사용자 질의와 연결되는 영속 식별자 없이 일반적인 웹 요청으로 처리됩니다.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;26B/31B 모델은 복잡한 추론에서 확실히 낫습니다.&lt;/strong&gt; 하지만 E4B에서 26B로의 점프는 하드웨어 요구 사항이 크게 증가하는 반면, 일반적인 검색 기반 Q&amp;amp;A에서는 결과 차이가 그에 비례하지 않습니다.&lt;/p&gt;
&lt;h2 id="이-구성이-적합한-경우-vs-클라우드-ai"&gt;이 구성이 적합한 경우 vs. 클라우드 AI
&lt;/h2&gt;&lt;p&gt;이 셋업이 적합한 경우:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;프라이버시가 절대적&lt;/strong&gt; — 법률, 의료, 금융 관련 질의를 제3자에게 노출하고 싶지 않을 때&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;비용을 완전히 없애고 싶을 때&lt;/strong&gt; — API 요금도, 구독료도 없음&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;제한된 네트워크 환경&lt;/strong&gt; — 클라우드 AI 서비스가 차단된 곳&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;셀프 호스팅 자체를 즐기는 경우&lt;/strong&gt; — 직접 구성하는 재미가 있을 때&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;클라우드 AI가 나은 경우:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;복잡한 태스크에서 최상위 추론 품질이 필요할 때&lt;/li&gt;
&lt;li&gt;로컬 모델의 컨텍스트 윈도우를 초과하는 긴 문서를 처리할 때&lt;/li&gt;
&lt;li&gt;가동 시간과 안정성이 프라이버시보다 중요할 때&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="마무리"&gt;마무리
&lt;/h2&gt;&lt;p&gt;Gemma 4 + SearXNG + OpenClaw 조합은 셀프 호스팅 AI의 의미 있는 이정표입니다. 1년 전만 해도 웹 검색이 가능한 에이전트 AI를 로컬에서 돌리려면 고가의 하드웨어가 필요했고 결과도 그저 그랬습니다. 지금은 RAM 8GB 노트북에서 E4B와 SearXNG를 조합해 실용적인 결과를 얻을 수 있습니다 — 무료로, 완전한 프라이버시와 함께.&lt;/p&gt;
&lt;p&gt;Docker와 패키지 매니저가 이미 설치되어 있다면 셋업은 15분 정도면 됩니다. 로컬 AI가 실용적 수준에 도달하기를 기다려왔다면, 이 조합을 시도해볼 가치가 있습니다.&lt;/p&gt;
&lt;h2 id="참고-자료"&gt;참고 자료
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://ai.google.dev/gemma" target="_blank" rel="noopener"
 &gt;Gemma 4 모델 카드 — Google&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://docs.searxng.org/" target="_blank" rel="noopener"
 &gt;SearXNG 공식 문서&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/openclaw" target="_blank" rel="noopener"
 &gt;OpenClaw GitHub 저장소&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://ollama.com/" target="_blank" rel="noopener"
 &gt;Ollama — 로컬 LLM 실행기&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>