零 GPU 如何玩转大模型:CPU 量化运行实测 + 8G/16G 内存优化技巧
没有 GPU 能不能跑大模型?能。我用一台 16G 内存、i5-12400 的机器做了完整测试,数据都是实测的 … 阅读更多
没有 GPU 能不能跑大模型?能。我用一台 16G 内存、i5-12400 的机器做了完整测试,数据都是实测的 … 阅读更多
Ollama 拉模型就一条命令:ollama pull 模型名。但这么多模型,拉哪个?低配机器怎么跑?量化到底 … 阅读更多
这篇是我折腾了好几轮之后总结出来的。Ollama 跑本地模型,Open WebUI 做聊天界面,两个都有 Do … 阅读更多