OpenClaw 太重了?试试这个轻量本地替代:n8n + Ollama 搭建你的私人数字员工

# OpenClaw 太重了?试试这个轻量本地替代:n8n + Ollama 搭建你的私人数字员工

2026 年了,本地 AI 工具越来越多,但也越来越重。

我之前装了 OpenClaw,功能确实强——智能体、多平台接入、插件系统、定时任务样样有。但问题是,它对低配机器不太友好。跑起来吃资源不说,光是依赖就装了一大堆。

如果你只是想让 AI 帮你干点日常活儿(新闻摘要、邮件分类、服务器巡检、定时提醒),而不是搞什么复杂的智能体编排,那 n8n + Ollama 可能更合适。

轻量、简单、够用。


先对比一下

OpenClaw

优点:

  • 功能全:多平台接入(Telegram/微信/Discord)、智能体系统、插件生态
  • 支持多种 LLM 后端(本地 Ollama / OpenAI / Claude)
  • 定时任务、心跳检查、工作流编排
  • 社区活跃,更新快
  • 缺点:

  • 依赖多:Node.js + 各种 npm 包 + 浏览器 + 缓存
  • 资源占用:跑起来轻松 500MB~1GB
  • 学习曲线:配置文件多,概念也多(Agent/Skill/Memory/Heartbeat)
  • 小机器上可能跑不动,或者跑起来了没剩多少资源干别的
  • n8n + Ollama

    优点:

  • 轻量:n8n 自身 300MB 左右,Ollama 看模型大小
  • 画布式界面,拖拽连线,直观
  • 内置 300+ 集成节点(Telegram/邮件/Slack/HTTP/GitHub…)
  • 工作流可视化管理,执行记录一目了然
  • Docker 一键部署,升级方便
  • 缺点:

  • 没有智能体系统——得自己搭逻辑
  • 没有多平台统一接入——每个平台得单独配
  • 没有内置插件生态——得靠 HTTP/脚本自己接
  • 复杂任务(多步决策、动态路由)不如 OpenClaw 灵活

  • 什么时候该选 n8n + Ollama?

    如果你符合以下情况:

  • ✅ 机器内存 ≤ 4G
  • ✅ 主要需求是”定时跑任务 + AI 处理 + 通知结果”
  • ✅ 不想花太多时间学配置和概念
  • ✅ 工作流数量不多(5 个以内)
  • 那 n8n + Ollama 够用。

    如果你有这些需求:

  • ❌ 多平台统一消息接入(一个 Agent 同时管 Telegram/微信/飞书)
  • ❌ 智能体自主决策(根据情况动态选择下一步)
  • ❌ 复杂的技能系统(几十上百个技能按需加载)
  • ❌ 需要浏览器自动化(自动打开网页、点击、截图)
  • 那还是 OpenClaw 更合适,或者两者配合用——OpenClaw 管接入和智能体,n8n 管具体的工作流。


    部署

    1. 装 Ollama

    BASH
    curl -fsSL https://ollama.com/install.sh | sh
    

    拉个小模型:

    BASH
    ollama pull qwen2.5:3b
    

    2. 装 n8n

    BASH
    mkdir -p /opt/n8n && cd /opt/n8n

    cat > docker-compose.yml << 'EOF' version: "3.8" services: n8n: image: docker.n8n.io/n8nio/n8n:latest container_name: n8n restart: unless-stopped ports: - "5678:5678" volumes: - n8n-data:/home/node/.n8n environment: - GENERIC_TIMEZONE=Asia/Shanghai - TZ=Asia/Shanghai - EXECUTIONS_MODE=queue - QUEUE_BULL_REDIS_URL=redis://redis:6379 - N8N_CONCURRENCY_PRODUCTION_LIMIT=1 depends_on: - redis deploy: resources: limits: memory: 512M redis: image: redis:7-alpine container_name: n8n-redis restart: unless-stopped command: redis-server --maxmemory 64mb --maxmemory-policy allkeys-lru deploy: resources: limits: memory: 64M

    volumes: n8n-data: EOF

    docker compose up -d

    3. 让 n8n 能访问 Ollama

    BASH
    mkdir -p /etc/systemd/system/ollama.service.d
    cat > /etc/systemd/system/ollama.service.d/override.conf << 'EOF'
    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"
    Environment="OLLAMA_CONTEXT_LENGTH=2048"
    Environment="OLLAMA_KEEP_ALIVE=1m"
    EOF

    systemctl daemon-reload && systemctl restart ollama

    n8n 里 Ollama 的 URL 填 http://172.17.0.1:11434(Docker 网关)。


    快速搭建 3 个实用工作流

    工作流 1:每日新闻摘要

    Schedule (每天 8:00)
      → RSS Feed Read (3 个源)
        → Ollama Chat (总结 + 分类)
          → Telegram Bot (发送)
    

    Ollama 的 System Prompt:

    你是一个新闻摘要助手。以下是今天的新闻列表,请用简洁的中文总结每条的核心内容,
    按类别分组,每条一句话。总字数控制在 500 字以内。
    

    工作流 2:邮件智能分类

    IMAP Trigger (收到新邮件)
      → Ollama Chat (判断:重要/一般/垃圾)
        → IF (重要?)
          / 
        是   否
        ↓     ↓
      Telegram  归档到文件夹
    

    Ollama 的 System Prompt:

    你是一封邮件的分类助手。判断这封邮件是:重要 / 一般 / 垃圾。
    重要的标准:工作相关、含截止日期、需要你回复。
    只输出一个词:重要/一般/垃圾
    

    工作流 3:服务器巡检

    Schedule (每天 18:00)
      → Execute Command (df -h, free -m, systemctl status)
        → Ollama Chat (分析状态)
          → IF (有异常?)
            / 
          是   否
          ↓     ↓
        Telegram  结束(不打扰)
    

    进阶:加个 Webhook 接口

    想让外部服务触发工作流?加一个 Webhook 节点:

    Webhook (POST /webhook/check)
      → 接收 JSON 数据
        → Ollama Chat (处理)
          → 返回结果
    

    然后任何服务都能调:

    BASH
    curl -X POST http://your-server:5678/webhook/check 
      -H "Content-Type: application/json" 
      -d '{"text": "帮我分析一下这段日志..."}'
    

    和 OpenClaw 配合用

    如果你已经有 OpenClaw,也不用二选一。可以配合:

  • OpenClaw 管消息接入和智能体对话
  • n8n 管定时工作流和数据处理
  • 两者通过 Webhook 通信

比如:OpenClaw 收到用户的”帮我看看服务器状态”,通过 Webhook 触发 n8n 的巡检工作流,拿到结果后 OpenClaw 再把结果发回给用户。

用户 → Telegram → OpenClaw → Webhook → n8n 工作流 → 结果返回 → OpenClaw → Telegram

总结

n8n + Ollama 不是 OpenClaw 的”降级版”,而是一个不同定位的选择

OpenClaw 是一个完整的 AI 助手框架,适合想要多平台接入、智能体系统、复杂任务编排的人。

n8n + Ollama 是一个轻量工作流方案,适合只想”让 AI 帮我跑几个定时任务”的人。

资源有限、需求简单的情况下,轻量方案反而更舒服。不用学一堆概念,打开 n8n 画布,拖几个节点连起来,就能跑。

等哪天你觉得不够用了,再迁移到 OpenClaw 也不迟。n8n 的 Webhook 接口是开放的,工作流逻辑也能复用。

先跑起来,再考虑升级。别一上来就搞太重的东西。

发表评论