跳至内容

95博客

  • 首页
  • Login
  • ip检测
  • 隐私政策
  • 隐私政策(超算科学计算器)
  • 用户协议(超算科学计算器)
  • 实用工具
    • 京东返利搜索

Ollama

零 GPU 如何玩转大模型:CPU 量化运行实测 + 8G/16G 内存优化技巧

2026年4月9日2026年4月9日 作者 云烟

没有 GPU 能不能跑大模型?能。我用一台 16G 内存、i5-12400 的机器做了完整测试,数据都是实测的 … 阅读更多

分类 未分类、 本地AI 标签 CPU、 Ollama、 模型优化、 量化 发表评论

Ollama 常用模型拉取与量化实战:DeepSeek、Qwen、Llama3 在 8G/16G 机器上怎么跑

2026年4月9日2026年4月9日 作者 云烟

Ollama 拉模型就一条命令:ollama pull 模型名。但这么多模型,拉哪个?低配机器怎么跑?量化到底 … 阅读更多

分类 本地AI 标签 DeepSeek、 Ollama、 Qwen、 模型、 量化 发表评论

Ollama + Open WebUI 完整部署指南:Docker vs 原生,CPU/GPU 都给你整明白

2026年4月9日2026年4月9日 作者 云烟

这篇是我折腾了好几轮之后总结出来的。Ollama 跑本地模型,Open WebUI 做聊天界面,两个都有 Do … 阅读更多

分类 Docker容器、 本地AI 标签 Docker、 Ollama、 Open WebUI、 部署 发表评论
较新文章
← 上一页 页面1 页面2

近期文章

  • 2026 廉价 VPS 推荐 + 一键部署脚本:甲骨文免费 ARM 跑本地 AI 全家桶
  • 本地 Ollama AI 实战:写作助手、代码生成、翻译、新闻摘要等日常场景
  • 本地 AI 工具横评对比:Ollama vs LM Studio vs Open WebUI vs Dify 实测
  • Win11/Win10 安装 Docker Desktop 完整避坑指南:WSL2、权限、数据卷迁移
  • Ollama 多模型同时运行 + 资源监控:避免 OOM 崩溃的实用配置

近期评论

您尚未收到任何评论。
© 2026 95博客
本站已运行 — · © 2026 95bok.cn · 访客:— · 在线:—