<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>横评 &#8211; 95博客</title>
	<atom:link href="https://95bok.cn/tag/%E6%A8%AA%E8%AF%84/feed/" rel="self" type="application/rss+xml" />
	<link>https://95bok.cn</link>
	<description>云烟</description>
	<lastBuildDate>Thu, 09 Apr 2026 09:31:51 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://95bok.cn/wp-content/uploads/2025/11/cropped-1740116058152-32x32.jpg</url>
	<title>横评 &#8211; 95博客</title>
	<link>https://95bok.cn</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>本地 AI 工具横评对比：Ollama vs LM Studio vs Open WebUI vs Dify 实测</title>
		<link>https://95bok.cn/local-ai-tools-comparison-review/</link>
					<comments>https://95bok.cn/local-ai-tools-comparison-review/#respond</comments>
		
		<dc:creator><![CDATA[云烟]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 07:07:41 +0000</pubDate>
				<category><![CDATA[性能与安全加固]]></category>
		<category><![CDATA[未分类]]></category>
		<category><![CDATA[本地AI]]></category>
		<category><![CDATA[Dify]]></category>
		<category><![CDATA[Ollama]]></category>
		<category><![CDATA[对比]]></category>
		<category><![CDATA[模型评测]]></category>
		<category><![CDATA[横评]]></category>
		<guid isPermaLink="false">https://95bok.cn/local-ai-tools-comparison-review/</guid>

					<description><![CDATA[市面上跑本地模型的工具太多了。这篇不吹不黑，把我实际用过的几个拉出来对比，数据都是实测。 先看结论 只聊天：L ... <a title="本地 AI 工具横评对比：Ollama vs LM Studio vs Open WebUI vs Dify 实测" class="read-more" href="https://95bok.cn/local-ai-tools-comparison-review/" aria-label="阅读 本地 AI 工具横评对比：Ollama vs LM Studio vs Open WebUI vs Dify 实测">阅读更多</a>]]></description>
										<content:encoded><![CDATA[<p>市面上跑本地模型的工具太多了。这篇不吹不黑，把我实际用过的几个拉出来对比，数据都是实测。</p>
<hr />
<h2>先看结论</h2>
<p>只聊天：LM Studio（Windows）或 Ollama（Linux）。</p>
<p>要 Web 界面：Open WebUI。</p>
<p>要知识库问答：AnythingLLM 最轻量，Dify 最全面。</p>
<p>要自动化流程：n8n。</p>
<p>全都要：Ollama 做后端 + Open WebUI 聊天 + AnythingLLM 知识库。</p>
<hr />
<h2>安装难度</h2>
<p>LM Studio 下载安装包，双击装。Ollama 一行命令。AnythingLLM 一条 Docker 命令。Open WebUI 一个 compose 文件。n8n 同上。Dify 最麻烦，要拉整个仓库改 .env 再 docker compose up，依赖服务也多。</p>
<h2>资源占用</h2>
<p>不算模型的话，Ollama 空闲时 ~100MB，LM Studio ~300MB，AnythingLLM ~300MB，Open WebUI ~400MB，n8n ~500MB，Dify 全家桶 ~2.5GB（Redis+PostgreSQL+Weaviate+Nginx+Sandbox 全算上）。</p>
<p>模型加载后的占用跟工具无关，只看模型大小。7B Q4_K_M 大约 4.7GB，所有工具都一样。</p>
<h2>速度</h2>
<p>统一用 Ollama 后端跑 qwen2.5:7b，同一个提示词：</p>
<p>Ollama CLI：5.0 t/s，首字 ~3s。Open WebUI：4.9 t/s。LM Studio：4.8 t/s。AnythingLLM：4.8 t/s。Dify：4.5 t/s。n8n：4.5 t/s。</p>
<p>差距不到 10%。瓶颈在 Ollama 和模型本身，前端带来的额外开销很小。</p>
<h2>功能</h2>
<p>聊天对话：都能，但 Open WebUI 体验最好，最像 ChatGPT。</p>
<p>知识库 RAG：AnythingLLM 开箱即用，上传文档就能问。Dify 最强大但配置复杂。Ollama 和 LM Studio 没有内置 RAG。Open WebUI 有基本的文档上传功能。n8n 可以编排但得自己搭。</p>
<p>多用户：Ollama 和 LM Studio 不支持。Open WebUI、Dify、AnythingLLM、n8n 都支持。</p>
<p>API：Ollama 的 OpenAI 兼容接口最通用。LM Studio 也有。Dify 能发布 API。n8n 有 Webhook。</p>
<p>工作流：Dify 和 n8n 是主力。其他的没有。</p>
<h2>模型翻译测试</h2>
<p>同样用 qwen2.5 系列，不同大小对比：</p>
<p>7B：翻译质量最好，用词准确，语序自然。速度 ~5 t/s。3B：翻译质量接近 7B，个别专有名词翻得不准。速度 ~12 t/s。1.5B：能翻，偶尔翻错意思，&#8221;自动车辆&#8221;这种直译。速度 ~20 t/s。</p>
<p>代码任务：qwen2.5-coder:7b 写的快速排序带注释、边界处理。qwen2.5:7b 通用版也正确但简洁。3B 版本能写基本逻辑但边界情况没处理。</p>
<h2>内存建议</h2>
<p>8G 机器：Ollama + qwen2.5:3b 或 1.5b。别装 GUI。</p>
<p>16G 机器：Ollama + Open WebUI + AnythingLLM，跑 7B 模型没问题。</p>
<p>32G 机器：全家桶 + Dify + n8n，14B 模型也能跑。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://95bok.cn/local-ai-tools-comparison-review/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
