<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>轻量 &#8211; 95博客</title>
	<atom:link href="https://95bok.cn/tag/%e8%bd%bb%e9%87%8f/feed/" rel="self" type="application/rss+xml" />
	<link>https://95bok.cn</link>
	<description>云烟</description>
	<lastBuildDate>Mon, 13 Apr 2026 08:49:10 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://95bok.cn/wp-content/uploads/2025/11/cropped-1740116058152-32x32.jpg</url>
	<title>轻量 &#8211; 95博客</title>
	<link>https://95bok.cn</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>OpenClaw 太重了？试试这个轻量本地替代：n8n + Ollama 搭建你的私人数字员工</title>
		<link>https://95bok.cn/openclaw-%e5%a4%aa%e9%87%8d%e4%ba%86%ef%bc%9f%e8%af%95%e8%af%95%e8%bf%99%e4%b8%aa%e8%bd%bb%e9%87%8f%e6%9c%ac%e5%9c%b0%e6%9b%bf%e4%bb%a3%ef%bc%9an8n-ollama-%e6%90%ad%e5%bb%ba%e4%bd%a0%e7%9a%84/</link>
					<comments>https://95bok.cn/openclaw-%e5%a4%aa%e9%87%8d%e4%ba%86%ef%bc%9f%e8%af%95%e8%af%95%e8%bf%99%e4%b8%aa%e8%bd%bb%e9%87%8f%e6%9c%ac%e5%9c%b0%e6%9b%bf%e4%bb%a3%ef%bc%9an8n-ollama-%e6%90%ad%e5%bb%ba%e4%bd%a0%e7%9a%84/#respond</comments>
		
		<dc:creator><![CDATA[]]></dc:creator>
		<pubDate>Mon, 13 Apr 2026 08:49:10 +0000</pubDate>
				<category><![CDATA[Docker容器]]></category>
		<category><![CDATA[本地AI]]></category>
		<category><![CDATA[n8n]]></category>
		<category><![CDATA[Ollama]]></category>
		<category><![CDATA[OpenClaw]]></category>
		<category><![CDATA[对比]]></category>
		<category><![CDATA[工作流]]></category>
		<category><![CDATA[轻量]]></category>
		<guid isPermaLink="false">https://95bok.cn/openclaw-%e5%a4%aa%e9%87%8d%e4%ba%86%ef%bc%9f%e8%af%95%e8%af%95%e8%bf%99%e4%b8%aa%e8%bd%bb%e9%87%8f%e6%9c%ac%e5%9c%b0%e6%9b%bf%e4%bb%a3%ef%bc%9an8n-ollama-%e6%90%ad%e5%bb%ba%e4%bd%a0%e7%9a%84/</guid>

					<description><![CDATA[# OpenClaw 太重了？试试这个轻量本地替代：n8n + Ollama 搭建你的私人数字员工 2026  ... <a title="OpenClaw 太重了？试试这个轻量本地替代：n8n + Ollama 搭建你的私人数字员工" class="read-more" href="https://95bok.cn/openclaw-%e5%a4%aa%e9%87%8d%e4%ba%86%ef%bc%9f%e8%af%95%e8%af%95%e8%bf%99%e4%b8%aa%e8%bd%bb%e9%87%8f%e6%9c%ac%e5%9c%b0%e6%9b%bf%e4%bb%a3%ef%bc%9an8n-ollama-%e6%90%ad%e5%bb%ba%e4%bd%a0%e7%9a%84/" aria-label="阅读 OpenClaw 太重了？试试这个轻量本地替代：n8n + Ollama 搭建你的私人数字员工">阅读更多</a>]]></description>
										<content:encoded><![CDATA[<p># OpenClaw 太重了？试试这个轻量本地替代：n8n + Ollama 搭建你的私人数字员工</p>
<p>2026 年了，本地 AI 工具越来越多，但也越来越重。</p>
<p>我之前装了 OpenClaw，功能确实强——智能体、多平台接入、插件系统、定时任务样样有。但问题是，它对低配机器不太友好。跑起来吃资源不说，光是依赖就装了一大堆。</p>
<p>如果你只是想<strong>让 AI 帮你干点日常活儿</strong>（新闻摘要、邮件分类、服务器巡检、定时提醒），而不是搞什么复杂的智能体编排，那 <strong>n8n + Ollama</strong> 可能更合适。</p>
<p>轻量、简单、够用。</p>
<hr />
<h2>先对比一下</h2>
<h3>OpenClaw</h3>
<p><strong>优点：</strong></p>
<ul>
<li>功能全：多平台接入（Telegram/微信/Discord）、智能体系统、插件生态</li>
<li>支持多种 LLM 后端（本地 Ollama / OpenAI / Claude）</li>
<li>定时任务、心跳检查、工作流编排</li>
<li>社区活跃，更新快</li>
<p><strong>缺点：</strong></p>
<li>依赖多：Node.js + 各种 npm 包 + 浏览器 + 缓存</li>
<li>资源占用：跑起来轻松 500MB~1GB</li>
<li>学习曲线：配置文件多，概念也多（Agent/Skill/Memory/Heartbeat）</li>
<li>小机器上可能跑不动，或者跑起来了没剩多少资源干别的</li>
<h3>n8n + Ollama</h3>
<p><strong>优点：</strong></p>
<li>轻量：n8n 自身 300MB 左右，Ollama 看模型大小</li>
<li>画布式界面，拖拽连线，直观</li>
<li>内置 300+ 集成节点（Telegram/邮件/Slack/HTTP/GitHub&#8230;）</li>
<li>工作流可视化管理，执行记录一目了然</li>
<li>Docker 一键部署，升级方便</li>
<p><strong>缺点：</strong></p>
<li>没有智能体系统——得自己搭逻辑</li>
<li>没有多平台统一接入——每个平台得单独配</li>
<li>没有内置插件生态——得靠 HTTP/脚本自己接</li>
<li>复杂任务（多步决策、动态路由）不如 OpenClaw 灵活</li>
<hr />
<h2>什么时候该选 n8n + Ollama？</h2>
<p>如果你符合以下情况：</p>
<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 机器内存 ≤ 4G</li>
<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 主要需求是&#8221;定时跑任务 + AI 处理 + 通知结果&#8221;</li>
<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 不想花太多时间学配置和概念</li>
<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 工作流数量不多（5 个以内）</li>
<p>那 n8n + Ollama 够用。</p>
<p>如果你有这些需求：</p>
<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/274c.png" alt="❌" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 多平台统一消息接入（一个 Agent 同时管 Telegram/微信/飞书）</li>
<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/274c.png" alt="❌" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 智能体自主决策（根据情况动态选择下一步）</li>
<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/274c.png" alt="❌" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 复杂的技能系统（几十上百个技能按需加载）</li>
<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/274c.png" alt="❌" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 需要浏览器自动化（自动打开网页、点击、截图）</li>
<p>那还是 OpenClaw 更合适，或者两者配合用——OpenClaw 管接入和智能体，n8n 管具体的工作流。</p>
<hr />
<h2>部署</h2>
<h3>1. 装 Ollama</h3>
<pre><code class="language-bash">curl -fsSL https://ollama.com/install.sh | sh
</code></pre>
<p>拉个小模型：</p>
<pre><code class="language-bash">ollama pull qwen2.5:3b
</code></pre>
<h3>2. 装 n8n</h3>
<pre><code class="language-bash">mkdir -p /opt/n8n &amp;&amp; cd /opt/n8n</p><p>cat &gt; docker-compose.yml &lt;&lt; &#039;EOF&#039;
version: &quot;3.8&quot;
services:
  n8n:
    image: docker.n8n.io/n8nio/n8n:latest
    container_name: n8n
    restart: unless-stopped
    ports:
      - &quot;5678:5678&quot;
    volumes:
      - n8n-data:/home/node/.n8n
    environment:
      - GENERIC_TIMEZONE=Asia/Shanghai
      - TZ=Asia/Shanghai
      - EXECUTIONS_MODE=queue
      - QUEUE_BULL_REDIS_URL=redis://redis:6379
      - N8N_CONCURRENCY_PRODUCTION_LIMIT=1
    depends_on:
      - redis
    deploy:
      resources:
        limits:
          memory: 512M
  
  redis:
    image: redis:7-alpine
    container_name: n8n-redis
    restart: unless-stopped
    command: redis-server --maxmemory 64mb --maxmemory-policy allkeys-lru
    deploy:
      resources:
        limits:
          memory: 64M</p><p>volumes:
  n8n-data:
EOF</p><p>docker compose up -d
</code></pre>
<h3>3. 让 n8n 能访问 Ollama</h3>
<pre><code class="language-bash">mkdir -p /etc/systemd/system/ollama.service.d
cat &gt; /etc/systemd/system/ollama.service.d/override.conf &lt;&lt; &#039;EOF&#039;
[Service]
Environment=&quot;OLLAMA_HOST=0.0.0.0&quot;
Environment=&quot;OLLAMA_CONTEXT_LENGTH=2048&quot;
Environment=&quot;OLLAMA_KEEP_ALIVE=1m&quot;
EOF</p><p>systemctl daemon-reload &amp;&amp; systemctl restart ollama
</code></pre>
<p>n8n 里 Ollama 的 URL 填 <code>http://172.17.0.1:11434</code>（Docker 网关）。</p>
<hr />
<h2>快速搭建 3 个实用工作流</h2>
<h3>工作流 1：每日新闻摘要</h3>
<pre><code class="language-">Schedule (每天 8:00)
  → RSS Feed Read (3 个源)
    → Ollama Chat (总结 + 分类)
      → Telegram Bot (发送)
</code></pre>
<p>Ollama 的 System Prompt：</p>
<pre><code class="language-">你是一个新闻摘要助手。以下是今天的新闻列表，请用简洁的中文总结每条的核心内容，
按类别分组，每条一句话。总字数控制在 500 字以内。
</code></pre>
<h3>工作流 2：邮件智能分类</h3>
<pre><code class="language-">IMAP Trigger (收到新邮件)
  → Ollama Chat (判断：重要/一般/垃圾)
    → IF (重要？)
      / 
    是   否
    ↓     ↓
  Telegram  归档到文件夹
</code></pre>
<p>Ollama 的 System Prompt：</p>
<pre><code class="language-">你是一封邮件的分类助手。判断这封邮件是：重要 / 一般 / 垃圾。
重要的标准：工作相关、含截止日期、需要你回复。
只输出一个词：重要/一般/垃圾
</code></pre>
<h3>工作流 3：服务器巡检</h3>
<pre><code class="language-">Schedule (每天 18:00)
  → Execute Command (df -h, free -m, systemctl status)
    → Ollama Chat (分析状态)
      → IF (有异常？)
        / 
      是   否
      ↓     ↓
    Telegram  结束（不打扰）
</code></pre>
<hr />
<h2>进阶：加个 Webhook 接口</h2>
<p>想让外部服务触发工作流？加一个 Webhook 节点：</p>
<pre><code class="language-">Webhook (POST /webhook/check)
  → 接收 JSON 数据
    → Ollama Chat (处理)
      → 返回结果
</code></pre>
<p>然后任何服务都能调：</p>
<pre><code class="language-bash">curl -X POST http://your-server:5678/webhook/check 
  -H "Content-Type: application/json" 
  -d '{"text": "帮我分析一下这段日志..."}'
</code></pre>
<hr />
<h2>和 OpenClaw 配合用</h2>
<p>如果你已经有 OpenClaw，也不用二选一。可以配合：</p>
<li><strong>OpenClaw</strong> 管消息接入和智能体对话</li>
<li><strong>n8n</strong> 管定时工作流和数据处理</li>
<li>两者通过 Webhook 通信</li>
</ul>
<p>比如：OpenClaw 收到用户的&#8221;帮我看看服务器状态&#8221;，通过 Webhook 触发 n8n 的巡检工作流，拿到结果后 OpenClaw 再把结果发回给用户。</p>
<pre><code class="language-">用户 → Telegram → OpenClaw → Webhook → n8n 工作流 → 结果返回 → OpenClaw → Telegram
</code></pre>
<hr />
<h2>总结</h2>
<p>n8n + Ollama 不是 OpenClaw 的&#8221;降级版&#8221;，而是一个<strong>不同定位的选择</strong>。</p>
<p>OpenClaw 是一个完整的 AI 助手框架，适合想要多平台接入、智能体系统、复杂任务编排的人。</p>
<p>n8n + Ollama 是一个轻量工作流方案，适合只想&#8221;让 AI 帮我跑几个定时任务&#8221;的人。</p>
<p>资源有限、需求简单的情况下，轻量方案反而更舒服。不用学一堆概念，打开 n8n 画布，拖几个节点连起来，就能跑。</p>
<p>等哪天你觉得不够用了，再迁移到 OpenClaw 也不迟。n8n 的 Webhook 接口是开放的，工作流逻辑也能复用。</p>
<p>先跑起来，再考虑升级。别一上来就搞太重的东西。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://95bok.cn/openclaw-%e5%a4%aa%e9%87%8d%e4%ba%86%ef%bc%9f%e8%af%95%e8%af%95%e8%bf%99%e4%b8%aa%e8%bd%bb%e9%87%8f%e6%9c%ac%e5%9c%b0%e6%9b%bf%e4%bb%a3%ef%bc%9an8n-ollama-%e6%90%ad%e5%bb%ba%e4%bd%a0%e7%9a%84/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
