OpenClaw 进阶实战:对接 Ollama 本地模型 + 智能体 + 自动化案例

之前写过 OpenClaw 的基础部署,这篇讲进阶——把 OpenClaw 和本地 Ollama 接起来,搭一个真正能用的 AI 智能体。


架构

OpenClaw 对接模型走的是 OpenAI 兼容接口。Ollama 从 0.1.14 开始也支持这个接口。所以理论上改一行 base_url 就能连。

配置示例(config.yaml):

YAML
llm:
  provider: openai
  base_url: http://127.0.0.1:11434/v1
  api_key: ollama
  model: qwen2.5:7b

如果追求更稳定的桥接,可以用 ollama2api 做一层代理。我之前写过非 Docker 部署的笔记,搜一下就能找到。


几个实际用法

写作助手

system prompt 这样写:

你是一个写作助手。用户发来文字时:如果是中文,润色使其更专业流畅;如果用户说"翻译",翻成英文;说"扩写"就扩展细节;说"总结"就精简到3句话。不要说"作为一个AI"之类的套话,直接给结果。

Telegram 发一段话过去,它直接帮你润色/翻译/扩写,不用切换工具。

代码审查

你是一个代码审查助手。收到代码时指出潜在问题(bug、性能、安全),给出改进建议,需要时提供修改后的代码。保持简洁,不要废话。

把代码片段发过去,它会指出 SQL 注入、连接泄漏之类的问题,还能直接给修改后的代码。

多模型路由

不同任务用不同模型:

  • 简单对话 → qwen2.5:3b(快)
  • 复杂推理 → deepseek-r1:7b(强)
  • 代码生成 → qwen2.5-coder:7b(专精)
  • 翻译 → qwen2.5:1.5b(够用且快)

ollama2api 的管理后台可以配模型路由。或者在 OpenClaw 中间件里写简单判断逻辑。

定时任务

利用 OpenClaw 的 cron 功能,每天早上 8 点抓 RSS 让 AI 生成摘要发到 Telegram。每周从 Git 仓库拉提交记录让 AI 总结本周工作。


Telegram 群组机器人

在 Telegram 创建机器人(找 @BotFather),拉进群组设管理员。OpenClaw 配置:

YAML
telegram:
  bot_token: "你的Bot Token"
  mention_only: true
  allowed_chats:
    - "-100xxxxxxxxxx"

mention_only 设为 true 表示只有 @机器人 时才回复,不然群聊里什么话它都接会很烦。


性能问题

7B 模型在 CPU 上 3~5 t/s,一段 200 字的回答要等 40~60 秒。优化:

  • 日常对话用 3B(10~15 t/s),体验好很多
  • system prompt 里加”回答控制在100字以内”
  • 开流式输出,不用等完整回答才显示
  • 有 GPU 的话 RTX 3060 能让 7B 到 15~20 t/s

几点实话

本地 7B 模型跟 GPT-4 有差距。复杂推理、代码生成上很明显。但日常对话、简单翻译、文本润色,Qwen2.5:7b 已经够用。

不要期望 7B 模型达到商业 API 的水平。但它免费、隐私、离线——这就是价值。

发表评论