之前写过 OpenClaw 的基础部署,这篇讲进阶——把 OpenClaw 和本地 Ollama 接起来,搭一个真正能用的 AI 智能体。
架构
OpenClaw 对接模型走的是 OpenAI 兼容接口。Ollama 从 0.1.14 开始也支持这个接口。所以理论上改一行 base_url 就能连。
配置示例(config.yaml):
llm:
provider: openai
base_url: http://127.0.0.1:11434/v1
api_key: ollama
model: qwen2.5:7b如果追求更稳定的桥接,可以用 ollama2api 做一层代理。我之前写过非 Docker 部署的笔记,搜一下就能找到。
几个实际用法
写作助手
system prompt 这样写:
你是一个写作助手。用户发来文字时:如果是中文,润色使其更专业流畅;如果用户说"翻译",翻成英文;说"扩写"就扩展细节;说"总结"就精简到3句话。不要说"作为一个AI"之类的套话,直接给结果。
Telegram 发一段话过去,它直接帮你润色/翻译/扩写,不用切换工具。
代码审查
你是一个代码审查助手。收到代码时指出潜在问题(bug、性能、安全),给出改进建议,需要时提供修改后的代码。保持简洁,不要废话。
把代码片段发过去,它会指出 SQL 注入、连接泄漏之类的问题,还能直接给修改后的代码。
多模型路由
不同任务用不同模型:
- 简单对话 → qwen2.5:3b(快)
- 复杂推理 → deepseek-r1:7b(强)
- 代码生成 → qwen2.5-coder:7b(专精)
- 翻译 → qwen2.5:1.5b(够用且快)
ollama2api 的管理后台可以配模型路由。或者在 OpenClaw 中间件里写简单判断逻辑。
定时任务
利用 OpenClaw 的 cron 功能,每天早上 8 点抓 RSS 让 AI 生成摘要发到 Telegram。每周从 Git 仓库拉提交记录让 AI 总结本周工作。
Telegram 群组机器人
在 Telegram 创建机器人(找 @BotFather),拉进群组设管理员。OpenClaw 配置:
telegram:
bot_token: "你的Bot Token"
mention_only: true
allowed_chats:
- "-100xxxxxxxxxx"mention_only 设为 true 表示只有 @机器人 时才回复,不然群聊里什么话它都接会很烦。
性能问题
7B 模型在 CPU 上 3~5 t/s,一段 200 字的回答要等 40~60 秒。优化:
- 日常对话用 3B(10~15 t/s),体验好很多
- system prompt 里加”回答控制在100字以内”
- 开流式输出,不用等完整回答才显示
- 有 GPU 的话 RTX 3060 能让 7B 到 15~20 t/s
几点实话
本地 7B 模型跟 GPT-4 有差距。复杂推理、代码生成上很明显。但日常对话、简单翻译、文本润色,Qwen2.5:7b 已经够用。
不要期望 7B 模型达到商业 API 的水平。但它免费、隐私、离线——这就是价值。