这篇讲 Dify 的本地部署。Dify 是个开源 AI 应用开发平台,可视化搭聊天机器人、工作流、Agent,比纯写代码省事多了。
Dify 和 Open WebUI 的区别
Open WebUI 就是个聊天界面,轻量简单。Dify 是完整平台——能编排工作流、管理知识库、发布 API、建 Agent。
只想聊天选 Open WebUI。要搭应用、搞知识库、做复杂流程选 Dify。
部署
克隆官方仓库:
cd /opt
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env.env 里改几个关键的:
EXPOSE_NGINX_PORT=8080对接本地 Ollama:
OLLAMA_API_BASE_URL=http://host.docker.internal:11434
# 或者 Docker 网关 IP:http://172.17.0.1:11434启动:
docker compose up -d第一次拉很多镜像,等几分钟。看进度 docker compose logs -f。
访问 http://你的IP:8080,首次注册管理员账号。
对接 Ollama
登录 Dify → 设置 → 模型供应商 → 选 Ollama → 填地址 → 验证 → 保存。
地址格式:
- 同机:http://host.docker.internal:11434 或 http://172.17.0.1:11434
- 其他机器:http://192.168.x.x:11434
Ollama 得监听 0.0.0.0 而不是 127.0.0.1,否则容器里连不上:
ss -tlnp | grep 11434
# 看到 127.0.0.1 就得改
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
sudo systemctl daemon-reload && sudo systemctl restart ollama创建应用
首页 → 创建应用 → 聊天助手 → 选模型 → 写系统提示词 → 发布。
知识库问答机器人:
- 知识库 → 创建知识库
- 上传文档(PDF、TXT、Markdown、Word 都行)
- 分段方式选自动
- 索引,等处理完
- 创建聊天助手时开启上下文,选知识库
资源占用
Dify 全家桶(Dify + PostgreSQL + Redis + Weaviate + Nginx + Sandbox)大概 2~4G 内存。加上 Ollama 的 7B 模型,总共 7~9G。
16G 机器可以跑,8G 建议只跑 Ollama + Open WebUI,Dify 太重。
升级
cd /opt/dify/docker
git pull
docker compose pull
docker compose up -dDify 更新比较频繁,隔几周看看有没有新版本。