# OpenClaw 太重了?试试这个轻量本地替代:n8n + Ollama 搭建你的私人数字员工
2026 年了,本地 AI 工具越来越多,但也越来越重。
我之前装了 OpenClaw,功能确实强——智能体、多平台接入、插件系统、定时任务样样有。但问题是,它对低配机器不太友好。跑起来吃资源不说,光是依赖就装了一大堆。
如果你只是想让 AI 帮你干点日常活儿(新闻摘要、邮件分类、服务器巡检、定时提醒),而不是搞什么复杂的智能体编排,那 n8n + Ollama 可能更合适。
轻量、简单、够用。
先对比一下
OpenClaw
优点:
- 功能全:多平台接入(Telegram/微信/Discord)、智能体系统、插件生态
- 支持多种 LLM 后端(本地 Ollama / OpenAI / Claude)
- 定时任务、心跳检查、工作流编排
- 社区活跃,更新快
- 依赖多:Node.js + 各种 npm 包 + 浏览器 + 缓存
- 资源占用:跑起来轻松 500MB~1GB
- 学习曲线:配置文件多,概念也多(Agent/Skill/Memory/Heartbeat)
- 小机器上可能跑不动,或者跑起来了没剩多少资源干别的
- 轻量:n8n 自身 300MB 左右,Ollama 看模型大小
- 画布式界面,拖拽连线,直观
- 内置 300+ 集成节点(Telegram/邮件/Slack/HTTP/GitHub…)
- 工作流可视化管理,执行记录一目了然
- Docker 一键部署,升级方便
- 没有智能体系统——得自己搭逻辑
- 没有多平台统一接入——每个平台得单独配
- 没有内置插件生态——得靠 HTTP/脚本自己接
- 复杂任务(多步决策、动态路由)不如 OpenClaw 灵活
- ✅ 机器内存 ≤ 4G
- ✅ 主要需求是”定时跑任务 + AI 处理 + 通知结果”
- ✅ 不想花太多时间学配置和概念
- ✅ 工作流数量不多(5 个以内)
- ❌ 多平台统一消息接入(一个 Agent 同时管 Telegram/微信/飞书)
- ❌ 智能体自主决策(根据情况动态选择下一步)
- ❌ 复杂的技能系统(几十上百个技能按需加载)
- ❌ 需要浏览器自动化(自动打开网页、点击、截图)
- OpenClaw 管消息接入和智能体对话
- n8n 管定时工作流和数据处理
- 两者通过 Webhook 通信
缺点:
n8n + Ollama
优点:
缺点:
什么时候该选 n8n + Ollama?
如果你符合以下情况:
那 n8n + Ollama 够用。
如果你有这些需求:
那还是 OpenClaw 更合适,或者两者配合用——OpenClaw 管接入和智能体,n8n 管具体的工作流。
部署
1. 装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
拉个小模型:
ollama pull qwen2.5:3b
2. 装 n8n
mkdir -p /opt/n8n && cd /opt/n8ncat > docker-compose.yml << 'EOF'
version: "3.8"
services:
n8n:
image: docker.n8n.io/n8nio/n8n:latest
container_name: n8n
restart: unless-stopped
ports:
- "5678:5678"
volumes:
- n8n-data:/home/node/.n8n
environment:
- GENERIC_TIMEZONE=Asia/Shanghai
- TZ=Asia/Shanghai
- EXECUTIONS_MODE=queue
- QUEUE_BULL_REDIS_URL=redis://redis:6379
- N8N_CONCURRENCY_PRODUCTION_LIMIT=1
depends_on:
- redis
deploy:
resources:
limits:
memory: 512M
redis:
image: redis:7-alpine
container_name: n8n-redis
restart: unless-stopped
command: redis-server --maxmemory 64mb --maxmemory-policy allkeys-lru
deploy:
resources:
limits:
memory: 64M
volumes:
n8n-data:
EOF
docker compose up -d
3. 让 n8n 能访问 Ollama
mkdir -p /etc/systemd/system/ollama.service.d
cat > /etc/systemd/system/ollama.service.d/override.conf << 'EOF'
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_CONTEXT_LENGTH=2048"
Environment="OLLAMA_KEEP_ALIVE=1m"
EOFsystemctl daemon-reload && systemctl restart ollama
n8n 里 Ollama 的 URL 填 http://172.17.0.1:11434(Docker 网关)。
快速搭建 3 个实用工作流
工作流 1:每日新闻摘要
Schedule (每天 8:00)
→ RSS Feed Read (3 个源)
→ Ollama Chat (总结 + 分类)
→ Telegram Bot (发送)
Ollama 的 System Prompt:
你是一个新闻摘要助手。以下是今天的新闻列表,请用简洁的中文总结每条的核心内容,
按类别分组,每条一句话。总字数控制在 500 字以内。
工作流 2:邮件智能分类
IMAP Trigger (收到新邮件)
→ Ollama Chat (判断:重要/一般/垃圾)
→ IF (重要?)
/
是 否
↓ ↓
Telegram 归档到文件夹
Ollama 的 System Prompt:
你是一封邮件的分类助手。判断这封邮件是:重要 / 一般 / 垃圾。
重要的标准:工作相关、含截止日期、需要你回复。
只输出一个词:重要/一般/垃圾
工作流 3:服务器巡检
Schedule (每天 18:00)
→ Execute Command (df -h, free -m, systemctl status)
→ Ollama Chat (分析状态)
→ IF (有异常?)
/
是 否
↓ ↓
Telegram 结束(不打扰)
进阶:加个 Webhook 接口
想让外部服务触发工作流?加一个 Webhook 节点:
Webhook (POST /webhook/check)
→ 接收 JSON 数据
→ Ollama Chat (处理)
→ 返回结果
然后任何服务都能调:
curl -X POST http://your-server:5678/webhook/check
-H "Content-Type: application/json"
-d '{"text": "帮我分析一下这段日志..."}'
和 OpenClaw 配合用
如果你已经有 OpenClaw,也不用二选一。可以配合:
比如:OpenClaw 收到用户的”帮我看看服务器状态”,通过 Webhook 触发 n8n 的巡检工作流,拿到结果后 OpenClaw 再把结果发回给用户。
用户 → Telegram → OpenClaw → Webhook → n8n 工作流 → 结果返回 → OpenClaw → Telegram
总结
n8n + Ollama 不是 OpenClaw 的”降级版”,而是一个不同定位的选择。
OpenClaw 是一个完整的 AI 助手框架,适合想要多平台接入、智能体系统、复杂任务编排的人。
n8n + Ollama 是一个轻量工作流方案,适合只想”让 AI 帮我跑几个定时任务”的人。
资源有限、需求简单的情况下,轻量方案反而更舒服。不用学一堆概念,打开 n8n 画布,拖几个节点连起来,就能跑。
等哪天你觉得不够用了,再迁移到 OpenClaw 也不迟。n8n 的 Webhook 接口是开放的,工作流逻辑也能复用。
先跑起来,再考虑升级。别一上来就搞太重的东西。