Ollama API 调用教程:Python / 前端直连本地模型,兼容 OpenAI 接口
接本地模型就两条路:Ollama 原生 API 和 OpenAI 兼容接口。后者更重要,因为用了它,OpenA … 阅读更多
Ollama、Open WebUI、本地大模型部署与使用
接本地模型就两条路:Ollama 原生 API 和 OpenAI 兼容接口。后者更重要,因为用了它,OpenA … 阅读更多
这篇讲 Dify 的本地部署。Dify 是个开源 AI 应用开发平台,可视化搭聊天机器人、工作流、Agent, … 阅读更多
没有 GPU 能不能跑大模型?能。我用一台 16G 内存、i5-12400 的机器做了完整测试,数据都是实测的 … 阅读更多
Ollama 拉模型就一条命令:ollama pull 模型名。但这么多模型,拉哪个?低配机器怎么跑?量化到底 … 阅读更多
这篇是我折腾了好几轮之后总结出来的。Ollama 跑本地模型,Open WebUI 做聊天界面,两个都有 Do … 阅读更多
这篇是我自己折腾 ollama2api 的笔记:不走 Docker,直接在宿主机用 Python 虚拟环境跑起 … 阅读更多
一句话:如果你本地/内网有 Ollama(跑 llama、qwen、deepseek 之类),但又想让各种工具 … 阅读更多