还在纠结 CherryStudio 和 OpenWebUI?我全都要!
现在的 AI 客户端简直是百花齐放,讨论相对较多的应该就属 CherryStudio 和 OpenWebUI 了
先聊 CherryStudio
- 优点:UI 设计确实审美在线,比 ChatBox 精致不少,而且多服务商、多模型的接入和切换非常方便,主打一个方便快捷,打开软件就能用。
- 硬伤:对话历史的堆积,个人目前体验变得非常卡;最可惜的是缺乏原生多端同步。
再说 OpenWebUI
优点:走的是 Web 架构路线,界面复刻了 ChatGPT 的极简风格,上手几乎是零门槛。函数调用、知识库,还有高度可定制化的设置非常优秀,比如模型参数、权限、检索策略这类设置,很多客户端只是给个开关意思一下,它是给你一整套可控面板,当然还有我最需要的多端同步
缺点:模型太多的时候就很不方便管理,而且不支持 Gemini 接口的原生接入。高度可自定义化也意味着默认体验未必最佳 —— 你得自己调,调好了很爽,没调好就容易变成功能太多太杂,懒得去动的状态。
但我想要是能把二者相结合岂不是绝杀?能的佬友,能的!
① 对话高级参数完整汉化 + info 黑框重做:能直接看到更明确的用量和消费
② 自定义上下文条数:可以设置发送给模型的历史消息上下文的最大条数,有效节省 Token
③ 外部连接显示优化:作为一只屯屯鼠,公益站 / API 站一多,设置界面简直就是灾难。改成双列显示,管理效率直接拉满
④ Gemini 原生端口支持:不依赖 OpenAI 兼容层,直接走 Gemini 原生接口,可同步模型列表,
thinking_budget这类特有参数也能上,同时支持流式传输图片
⑤ 外部链接可备注名称 + 可点击名称直达 URL 设置:
本屯屯鼠最大的噩梦,看着一堆 URL 无从下手,现在能直接备注,方便区分,还能点名字直接跳转到设置,不用怕点错小齿轮,适合链接多的佬
⑥ 模型界面缓存逻辑优化:当模型列表过多时,不用再转圈圈等待
⑦ 自动按模型名匹配 Logo:不用再手动每个模型点进去添加图标了,增加了常见的 LLM 品牌 Logo 自动匹配(GPT/Claude/Gemini/Qwen…),对齐 CherryStudio
⑧ 首页模型切换处增加直达模型设置按钮:选模型的地方增加设置跳转,方便快速管理模型
⑨ 模型计费 + 用量统计前端同步 info 黑框:支持免费 / 按次 / 按量三种模式,实时计算对话成本
⑩ 推理强度 / Reasoning Effort 支持下拉 + 自定义输入
其余设置优化:(关于联网搜索不准确的解决方案)
优化 OpenWebUI 联网搜索功能【点击展开】
1、先按照图片设置 Documents 文档和联网搜索,重排模型根据自己的模型配置:
2、复制这段提示词到 Documents 文档设置中的 RAG 提示词模板中,再次试试联网搜索,会有惊喜
### Task:
Respond to the user query using the provided context, incorporating inline citations in the format [id] **only when the <source> tag includes an explicit id attribute** (e.g., <source id="1">).
### Guidelines:
- If you don't know the answer, clearly state that.
- If uncertain, ask the user for clarification.
- Respond to the user query in Chinese.
- If the context is unreadable or of poor quality, inform the user and provide the best possible answer.
- If the answer isn't present in the context but you possess the knowledge, explain this to the user and provide the answer using your own understanding.
- Only include inline citations using [id] (e.g., [1], [2]) when the <source> tag includes an id attribute.
- Do not cite if the <source> tag does not contain an id attribute.
- Do not use XML tags in your response.
- Ensure citations are concise and directly related to the information provided.
- Current Date: {{CURRENT_DATE}}. If there is conflicting information, prioritize the latest events based on the timeline.
### Rules for using web sources (especially time‑sensitive questions)
- For time-sensitive queries, prioritize webpages published within the **last 3–5 days**.
- If old data conflicts with new data, strictly prioritize the **latest publication time**.
- If multiple sources conflict, prioritize sources that are both **most recent AND from authoritative media/official institutions**.
- If sources disagree on the same fact, explicitly point out the discrepancy in your answer and justify which source you consider most reliable.
- Verify key facts against other sources to check for contradictions.
### Example of Citation:
If the user asks about a specific topic and the information is found in a source with a provided id attribute, the response should include the citation like in the following example:
* "According to the study, the proposed method increases efficiency by 20% [1]."
### Output:
Provide a clear and direct response to the user's query, including inline citations in the format [id] only when the <source> tag with id attribute is present in the context.
<context>
{{CONTEXT}}
</context>
<user_query>
{{QUERY}}
</user_query>
Docker 一键部署命令【点击展开】
docker run -d \
--name open-webui \ --restart always \
-p 3000:8080 \
-v open-webui:/app/backend/data \
ghcr.io/ztx888/openwebui:latest
- 浏览器访问:
http://你的服务器IP:3000 - 数据持久化在 Docker 卷:
open-webui(用于重启或者更新的时候不丢配置和对话)
如果你本机没有 Docker 卷习惯,也可以改成本地目录挂载:
mkdir -p ./open-webui-data
docker run -d \
--name open-webui \
--restart always \
-p 3000:8080 \
-v $(pwd)/open-webui-data:/app/backend/data \
ghcr.io/ztx888/openwebui:latest
最后必须说一句
非常感谢各位公益站站长的付出和维护,真的帮各位佬省了太多折腾和成本。提供节点、反代、还是日常兜底运维,都很不容易,向各位站长致敬。
遇到问题欢迎反馈
我会持续迭代同步更新官方上游,如果你装了之后遇到问题、或者有更想要的功能点,欢迎来反馈













