零 GPU 如何玩转大模型:CPU 量化运行实测 + 8G/16G 内存优化技巧 2026年4月9日2026年4月9日 作者 云烟 没有 GPU 能不能跑大模型?能。我用一台 16G 内存、i5-12400 的机器做了完整测试,数据都是实测的 … 阅读更多
Ollama 常用模型拉取与量化实战:DeepSeek、Qwen、Llama3 在 8G/16G 机器上怎么跑 2026年4月9日2026年4月9日 作者 云烟 Ollama 拉模型就一条命令:ollama pull 模型名。但这么多模型,拉哪个?低配机器怎么跑?量化到底 … 阅读更多