Dify 本地部署教程:Docker 一键搭建 AI 应用开发平台,对接 Ollama 模型

这篇讲 Dify 的本地部署。Dify 是个开源 AI 应用开发平台,可视化搭聊天机器人、工作流、Agent,比纯写代码省事多了。


Dify 和 Open WebUI 的区别

Open WebUI 就是个聊天界面,轻量简单。Dify 是完整平台——能编排工作流、管理知识库、发布 API、建 Agent。

只想聊天选 Open WebUI。要搭应用、搞知识库、做复杂流程选 Dify。


部署

克隆官方仓库:

BASH
cd /opt
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env

.env 里改几个关键的:

BASH
EXPOSE_NGINX_PORT=8080

对接本地 Ollama:

BASH
OLLAMA_API_BASE_URL=http://host.docker.internal:11434
# 或者 Docker 网关 IP:http://172.17.0.1:11434

启动:

BASH
docker compose up -d

第一次拉很多镜像,等几分钟。看进度 docker compose logs -f

访问 http://你的IP:8080,首次注册管理员账号。


对接 Ollama

登录 Dify → 设置 → 模型供应商 → 选 Ollama → 填地址 → 验证 → 保存。

地址格式:

  • 同机:http://host.docker.internal:11434 或 http://172.17.0.1:11434
  • 其他机器:http://192.168.x.x:11434

Ollama 得监听 0.0.0.0 而不是 127.0.0.1,否则容器里连不上:

BASH
ss -tlnp | grep 11434
# 看到 127.0.0.1 就得改
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
sudo systemctl daemon-reload && sudo systemctl restart ollama

创建应用

首页 → 创建应用 → 聊天助手 → 选模型 → 写系统提示词 → 发布。

知识库问答机器人:

  1. 知识库 → 创建知识库
  2. 上传文档(PDF、TXT、Markdown、Word 都行)
  3. 分段方式选自动
  4. 索引,等处理完
  5. 创建聊天助手时开启上下文,选知识库

资源占用

Dify 全家桶(Dify + PostgreSQL + Redis + Weaviate + Nginx + Sandbox)大概 2~4G 内存。加上 Ollama 的 7B 模型,总共 7~9G。

16G 机器可以跑,8G 建议只跑 Ollama + Open WebUI,Dify 太重。


升级

BASH
cd /opt/dify/docker
git pull
docker compose pull
docker compose up -d

Dify 更新比较频繁,隔几周看看有没有新版本。

发表评论