跳至内容

95博客

  • 首页
  • Login
  • ip检测
  • 隐私政策
  • 隐私政策(超算科学计算器)
  • 用户协议(超算科学计算器)
  • 实用工具
    • 京东返利搜索

本地AI

Ollama、Open WebUI、本地大模型部署与使用

Ollama API 调用教程:Python / 前端直连本地模型,兼容 OpenAI 接口

2026年4月9日2026年4月9日 作者 云烟

接本地模型就两条路:Ollama 原生 API 和 OpenAI 兼容接口。后者更重要,因为用了它,OpenA … 阅读更多

分类 本地AI 标签 API、 Ollama、 OpenAI、 Python 发表评论

Dify 本地部署教程:Docker 一键搭建 AI 应用开发平台,对接 Ollama 模型

2026年4月9日2026年4月9日 作者 云烟

这篇讲 Dify 的本地部署。Dify 是个开源 AI 应用开发平台,可视化搭聊天机器人、工作流、Agent, … 阅读更多

分类 Docker容器、 未分类、 本地AI 标签 Dify、 Docker、 本地AI、 部署 发表评论

零 GPU 如何玩转大模型:CPU 量化运行实测 + 8G/16G 内存优化技巧

2026年4月9日2026年4月9日 作者 云烟

没有 GPU 能不能跑大模型?能。我用一台 16G 内存、i5-12400 的机器做了完整测试,数据都是实测的 … 阅读更多

分类 未分类、 本地AI 标签 CPU、 Ollama、 模型优化、 量化 发表评论

Ollama 常用模型拉取与量化实战:DeepSeek、Qwen、Llama3 在 8G/16G 机器上怎么跑

2026年4月9日2026年4月9日 作者 云烟

Ollama 拉模型就一条命令:ollama pull 模型名。但这么多模型,拉哪个?低配机器怎么跑?量化到底 … 阅读更多

分类 本地AI 标签 DeepSeek、 Ollama、 Qwen、 模型、 量化 发表评论

Ollama + Open WebUI 完整部署指南:Docker vs 原生,CPU/GPU 都给你整明白

2026年4月9日2026年4月9日 作者 云烟

这篇是我折腾了好几轮之后总结出来的。Ollama 跑本地模型,Open WebUI 做聊天界面,两个都有 Do … 阅读更多

分类 Docker容器、 本地AI 标签 Docker、 Ollama、 Open WebUI、 部署 发表评论

ollama2api 非 Docker 部署记录:venv 跑通 → systemd 常驻 → Nginx 反代

2026年3月24日2026年3月7日 作者 云烟

这篇是我自己折腾 ollama2api 的笔记:不走 Docker,直接在宿主机用 Python 虚拟环境跑起 … 阅读更多

分类 Linux运维、 本地AI

【教程】Ollama2API 从 0 部署 + 接入 OpenClaw(本地大模型也能像 OpenAI 一样用)

2026年3月24日2026年3月7日 作者 云烟

一句话:如果你本地/内网有 Ollama(跑 llama、qwen、deepseek 之类),但又想让各种工具 … 阅读更多

分类 Linux运维、 本地AI
较新文章
← 上一页 页面1 页面2

近期文章

  • 2026 廉价 VPS 推荐 + 一键部署脚本:甲骨文免费 ARM 跑本地 AI 全家桶
  • 本地 Ollama AI 实战:写作助手、代码生成、翻译、新闻摘要等日常场景
  • 本地 AI 工具横评对比:Ollama vs LM Studio vs Open WebUI vs Dify 实测
  • Win11/Win10 安装 Docker Desktop 完整避坑指南:WSL2、权限、数据卷迁移
  • Ollama 多模型同时运行 + 资源监控:避免 OOM 崩溃的实用配置

近期评论

您尚未收到任何评论。
© 2026 95博客
本站已运行 — · © 2026 95bok.cn · 访客:— · 在线:—