Open WebUI:131K星的开源AI平台,让你在家跑大模型,数据不出门
你是不是也遇到过这些糟心事? 周一早上赶方案,打开ChatGPT想让它帮你润色一份涉密的招投标文件,犹豫了半天——这文件里有公司核心报价和客户信息,传到云端到底安不安全?最后你还是叹口气,手动改了三个小时。 又或者,你正在用Claude写代码,思路正顺,突然弹出来"Rate limit e
你是不是也遇到过这些糟心事?
周一早上赶方案,打开ChatGPT想让它帮你润色一份涉密的招投标文件,犹豫了半天——这文件里有公司核心报价和客户信息,传到云端到底安不安全?最后你还是叹口气,手动改了三个小时。
又或者,你正在用Claude写代码,思路正顺,突然弹出来"Rate limit exceeded"——流量用完了,请稍后再试。等你喝完一杯咖啡回来,思路全断了。
再或者,你好不容易翻墙用上了GPT-4o,但公司内网管控严格,同事之间没法共享对话和工具,每个人都得自己搞一套,效率低到令人发指。
这些痛点,是中国AI用户每天都在经历的日常:数据隐私没法保障、云端服务随时断连、多人协作困难、费用持续上涨、国产场景适配不足。
有没有一种方案,让你既能用上全球最强的大模型,又能把数据稳稳留在自己手里?
有。它叫 Open WebUI。
Open WebUI 到底是什么?
Open WebUI 是一个开源、可自托管(self-hosted)、功能丰富的AI平台,设计目标就是完全离线运行。它支持多种大语言模型(LLM)运行器,包括 Ollama(本地模型引擎)和所有 OpenAI兼容API(包括ChatGPT、Claude、DeepSeek、通义千问等),并且内置了RAG(检索增强生成)推理引擎。
简单来说:它就像你私有的ChatGPT网页版,但你可以自己决定用什么模型、数据存在哪里、谁能访问。
截至2026年4月,Open WebUI在GitHub上已经获得 131,000+ 星标,下载量超过 2.9亿次,社区成员超过 37.2万人。这个数据在开源AI项目中堪称顶级,说明它不是什么玩具项目,而是被全球开发者真金白银用起来的生产力工具。
一句话总结:Open WebUI = ChatGPT的界面体验 + 本地部署的数据安全 + 开源免费的可定制性。
术语解释: - 自托管(self-hosted):软件装在你自己的电脑或服务器上,数据不经过第三方,类似于自己开网站 vs 用微博的区别 - LLM(大语言模型):像ChatGPT、DeepSeek这类能理解和生成人类语言的AI模型 - RAG(检索增强生成):让AI先从你的文档中找资料再回答,减少"胡说八道"的技术 - Ollama:一个简化本地运行大模型的开源工具,一行命令就能下载和运行模型 - API:应用程序编程接口,这里指模型提供的调用通道,有了API就能接入各种模型服务
核心功能一览
Open WebUI的功能列表长得让人震撼,我挑最实用的逐一说给你听:
1. 多模型统一管理
- 支持接入 Ollama 本地模型、OpenAI API、Anthropic Claude、Google Gemini、Mistral、Groq、OpenRouter 等 所有OpenAI兼容API
- 在同一个对话里,你可以 同时和多个模型聊天,对比它们的回答(Many Models Conversations)
- 切换模型只需点一下,本地DeepSeek和云端GPT-4o之间无缝切换
2. 本地RAG(检索增强生成)
- 支持 9种向量数据库(ChromaDB、PGVector、Qdrant、Milvus、Elasticsearch、OpenSearch、Pinecone、S3Vector、Oracle 23ai)
- 支持多种文档解析引擎(Tika、Docling、Document Intelligence、Mistral OCR等)
- 直接把PDF、Word、Excel拖进聊天窗口,用
#命令调用文档库,AI回答时自动引用原文出处 - 关键:所有数据处理都在你本地完成,文档不上传到任何云端
3. 联网搜索集成
- 内置15+搜索引擎支持:SearXNG、Google PSE、Brave Search、DuckDuckGo、Bing、Kagi、Tavily、Perplexity 等
- 搜索结果直接注入聊天上下文,AI基于实时搜索结果回答问题
- 还支持用
#+ 网址的方式直接把网页内容拉进对话
4. 语音和视频通话
- 语音转文字(STT):支持本地Whisper、OpenAI、Deepgram、Azure
- 文字转语音(TTS):支持Azure、ElevenLabs、OpenAI、 Transformers、WebAPI
- 支持 免手操作的语音/视频通话模式,相当于免费的AI语音助手
5. 图像生成与编辑
- 支持 OpenAI DALL-E、Gemini、ComfyUI(本地)、AUTOMATIC1111(本地Stable Diffusion)
- 不仅能生图,还能用自然语言指令对图片进行编辑
- 本地生图引擎意味着你的提示词和图片都不需要经过第三方
6. 权限管理与多人协作
- 基于角色的访问控制(RBAC):管理员可以精细控制谁用什么模型、谁上传什么文档
- 用户组管理:按部门/项目创建用户组,分配不同权限
- 支持企业级认证:LDAP/Active Directory、SCIM 2.0、SSO、OAuth
- 适合团队/公司内部署,每个人都有独立账号和对话历史
7. Python工具与插件扩展
- 内置Python代码编辑器,可以写自定义函数让AI调用(BYOF——Bring Your Own Function)
- Pipelines插件框架:支持速率限制、使用监控(Langfuse)、实时翻译、毒消息过滤等
- 社区提供大量现成插件,在 openwebui.com 一键安装
8. 持久化存储与生产级部署
- 支持SQLite(可选加密)、PostgreSQL数据库
- 支持S3、Google Cloud Storage、Azure Blob Storage云存储后端
- 内置 OpenTelemetry 可观测性支持(链路追踪、指标、日志)
- Redis会话管理支持多节点水平扩展,适合企业级部署
- 原生支持Google Drive和OneDrive/SharePoint文件导入
9. 其他实用功能
- 完整Markdown和LaTeX数学公式渲染
- 响应式设计 + PWA,手机端体验如同原生App
- 多语言界面(i18n),中文已支持
- 模型构建器:可视化创建和导入自定义模型角色
- 离线模式:设置
HFHUBOFFLINE=1即可完全断网运行
手把手安装教程
Open WebUI的安装方式非常多,我按 从易到难 的顺序介绍,覆盖三大操作系统和Docker环境。
方法一:Python pip安装(最简单,适合小白)
这是对新手最友好的方式,不需要Docker,只要你有Python环境。
前提条件:Python 3.11(注意版本,3.12及以上可能有兼容问题)
Mac / Linux / Windows 通用步骤:
# 第1步:安装Open WebUI
pip install open-webui
# 第2步:启动服务
open-webui serve启动后打开浏览器访问 http://localhost:8080,首次使用注册管理员账号即可。
Mac用户注意:如果你用的是M系列芯片(M1/M2/M3/M4),Homebrew安装Python 3.11的命令是
brew install python@3.11Windows用户注意:建议从 python.org 下载安装Python 3.11,安装时勾选"Add Python to PATH"。如果pip命令找不到,试试python -m pip install open-webui
方法二:Docker安装(推荐,适合想长期使用的用户)
Docker的优势是环境隔离、升级方便、数据不丢失(通过volume挂载)。
前提条件:已安装Docker Desktop(Mac/Windows)或Docker Engine(Linux)
场景A:Ollama在本机(最常见)
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
-v open-webui:/app/backend/data这行很重要!它把数据持久化到Docker卷中,否则重启后所有聊天记录都会丢失。
场景B:Ollama在另一台服务器上
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=https://你的服务器地址 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main场景C:只用OpenAI API(不用本地模型)
docker run -d -p 3000:8080 \
-e OPENAI_API_KEY=sk-你的密钥 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main场景D:一行命令搞定Open WebUI + Ollama(最省心)
这个镜像把Ollama和Open WebUI打包在一起,一个命令全搞定:
有N卡GPU的:
docker run -d -p 3000:8080 \
--gpus=all \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama纯CPU运行(没有GPU也能用):
docker run -d -p 3000:8080 \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama安装完成后打开 http://localhost:3000 即可开始使用。
场景E:N卡GPU加速(推理更快)
需要先安装 NVIDIA CUDA Container Toolkit:
docker run -d -p 3000:8080 \
--gpus all \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:cuda常见连接问题排查
如果Docker容器连不上Ollama,在docker命令中加 --network=host:
docker run -d --network=host \
-v open-webui:/app/backend/data \
-e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main使用host网络后,访问地址变为 http://localhost:8080(不再是3000端口)。
方法三:各操作系统原生安装细节
Mac用户:
- 安装Homebrew:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" - 安装Python 3.11:
brew install python@3.11 - 安装Ollama:
brew install ollama或从 ollama.com 下载 - 启动Ollama:
ollama serve(另一个终端窗口) - 下载模型:
ollama pull qwen3:8b(推荐入门模型) - 安装并启动Open WebUI:
pip install open-webui && open-webui serve
Windows用户:
- 安装Docker Desktop(推荐)或Python 3.11
- 安装Ollama:从 ollama.com 下载Windows版安装包
- 如果用WSL2(Windows Subsystem for Linux):在WSL2中安装NVIDIA CUDA Toolkit可启用GPU加速
- 其余步骤同上
Linux用户(Ubuntu/Debian示例):
- 安装Docker:
curl -fsSL https://get.docker.com | sh - 安装Ollama:
curl -fsSL https://ollama.com/install.sh | sh - 下载模型:
ollama pull deepseek-r1:14b - 按上面的Docker命令启动Open WebUI
升级方法
Docker用户升级非常简单:
docker pull ghcr.io/open-webui/open-webui:main
docker rm -f open-webui
docker run -d -p 3000:8080 ... # 重新运行,参数和之前一样数据在Docker卷中,不会丢失。
三种使用方法:从入门到进阶
用法一:纯云端模式(最简单)
不需要本地模型,直接接入OpenAI/DeepSeek等API,就像自己部署了一个ChatGPT。
- 安装完Open WebUI后,进入 设置 → 连接
- 填入你的OpenAI API Key(或DeepSeek API Key等)
- 可选修改Base URL,例如接入国内中转:
https://api.deepseek.com/v1/ - 回到聊天界面,选择模型,开始对话
适合人群:想体验Open WebUI界面、已有API Key的用户 优点:零额外硬件需求,即开即用 注意:数据仍然会发送到API提供商(但你的对话记录存在本地Open WebUI数据库中,不会被用于训练)
用法二:本地模型+RAG文档问答(最实用)
这是Open WebUI最核心的使用场景——让AI基于你自己的文档回答问题。
- 安装Ollama并下载模型(推荐
ollama pull qwen3:8b或ollama pull deepseek-r1:14b) - 在Open WebUI设置中确认Ollama连接状态为绿色
- 上传文档:点击聊天框旁的
+按钮,选择PDF/Word/TXT文件 - 或在 工作区 → 文档 中批量上传文档到文档库
- 在聊天中用
#命令选择文档,然后提问 - AI的回答会附上引用来源(Relevance Score),点击可查看原文
实际操作示例:
- 上传公司员工手册PDF → 提问"年假怎么算?" → AI从手册中找到答案并标注出处
- 上传技术文档 → 提问"这个接口的参数格式是什么?" → AI给出精确引用
适合人群:需要私密文档问答的程序员、律师、研究人员、企业管理者
用法三:全栈企业部署(最进阶)
适合团队/公司内部署,完整利用权限管理、多模型、插件、监控等功能。
- 使用Docker Compose部署(含PostgreSQL + Redis + Ollama)
- 配置SSO/LDAP认证,对接公司身份系统
- 创建用户组,分配模型和文档访问权限
- 部署Pipelines插件:速率限制、使用监控、消息过滤
- 配置OpenTelemetry实现全链路监控
- 如有需要,接入S3/MinIO做文件存储后端
企业级Docker Compose参考架构:
Open WebUI(多节点+负载均衡)
├── PostgreSQL + PGVector(数据+向量)
├── Redis(会话+WebSocket)
├── Ollama/vLLM(模型推理层)
├── S3/MinIO(文件存储)
└── OpenTelemetry Collector(监控)适合人群:IT运维团队、企业管理者、需要合规审计的场景
实际应用场景速查表
| 场景 | 具体做法 | 适用模型/功能 | 数据安全级别 |
|---|---|---|---|
| 程序员写代码/Code Review | 本地模型+联网搜索查API文档 | DeepSeek-R1、Qwen3-Coder | 高(代码不出本机) |
| 律师/法务查法条 | RAG上传法规库+案例库,AI基于文档回答 | 任意模型+RAG | 极高(完全本地处理) |
| 研究人员读论文 | RAG上传论文PDF,逐篇提问并对比 | Claude/GPT-4o+RAG | 高 |
| 产品经理写PRD | 多模型对话,对比不同模型写出的方案 | 云端API+本地模型切换 | 中 |
| 企业内部知识库 | 批量上传内部文档,全员按权限访问 | Ollama本地模型+RBAC权限 | 极高 |
| 客服/运维自动问答 | RAG上传FAQ+SOP,客服人员直接提问 | 轻量本地模型(省资源) | 高 |
| 学生学习/做题 | 联网搜索+LaTeX数学公式渲染 | 云端模型 | 低 |
| 销售写邮件/方案 | 语音输入+AI润色+网页内容引用 | 语音STT+TTS+Web浏览 | 中 |
| 人力资源/绩效考核 | RAG上传制度文件,AI辅助制度问答 | 本地模型(敏感数据) | 极高 |
| 医疗/科研数据分析 | 离线模式,数据完全不触网 | 量化大模型+RAG | 极高 |
同类工具对比
| 特性 | Open WebUI | ChatGPT官方 | Ollama Web | LM Studio | AnythingLLM | Continue(插件) |
|---|---|---|---|---|---|---|
| 开源免费 | 是 | 否 | 无 | 是 | 是(基础版) | 是 |
| 自托管 | 是 | 否 | 有限 | 部分 | 是 | 否 |
| 本地模型(Ollama) | 是 | 否 | 是 | 是 | 是 | 是 |
| 云端API | 是(多供应商) | 是(仅OpenAI) | 否 | 是 | 是 | 是 |
| 多模型同时对话 | 是 | 否 | 否 | 否 | 否 | 否 |
| RAG文档问答 | 是(9种向量库) | 是(付费) | 否 | 有限 | 是 | 否 |
| 联网搜索 | 是(15+引擎) | 是(付费) | 否 | 否 | 部分 | 否 |
| 语音/视频通话 | 是 | 是(付费) | 否 | 否 | 否 | 否 |
| 图像生成 | 是(多引擎) | 是(付费) | 否 | 否 | 否 | 否 |
| 权限管理(RBAC) | 是 | 是(企业版) | 否 | 否 | 部分 | 否 |
| Python插件/工具 | 是(Pipelines) | 否 | 否 | 否 | 是 | 是 |
| 离线运行 | 是 | 否 | 是 | 是 | 是 | 部分 |
| 手机端PWA | 是 | 是 | 否 | 否 | 否 | 否 |
| 社区生态 | 37万+成员 | 超大 | Ollama社区 | 中等 | 小 | VS Code生态 |
| GitHub星标 | 131K+ | 不适用 | 130K+ | 58K+ | 30K+ | 22K+ |
| 上手难度 | 中等 | 极低 | 低 | 低 | 中等 | 中等 |
对比结论:Open WebUI的核心优势在于 "全能"——它是目前唯一一个同时具备本地模型+云端API+RAG+联网搜索+语音+图像+权限管理+插件扩展的统一AI平台。ChatGPT什么都行但要花钱和数据上云;Ollama只能跑本地模型;LM Studio偏个人使用;AnythingLLM专注RAG但功能面窄。Open WebUI把这些全打包在了一起,而且完全开源免费。
小结
Open WebUI 解决的核心问题非常明确:让每个人都能拥有自己的AI平台,数据在自己手里,模型自己选,用多少不受限。
对于中国用户来说,它的价值更加突出:
- 数据安全:无论是公司机密、个人隐私还是受监管的行业数据,都可以完全在本地处理,不用担心被云服务商用于模型训练
- 成本可控:本地模型零调用费用,云端API可以灵活选择性价比最高的供应商(DeepSeek、通义千问等国内API价格远低于OpenAI)
- 断网可用:在网关严格的企业内网、出差路上、甚至断网环境下,本地模型照常工作
- 协作友好:一次部署,团队全员使用,权限精细可控
- 中文生态好:天然支持中文界面,DeepSeek、Qwen等国产模型无缝接入
从2013K GitHub星标到2.9亿次下载,Open WebUI已经是一个成熟的、可信赖的开源项目。无论你是想搭一个私有ChatGPT来保护数据隐私,还是想在公司内部建一个AI知识库,或者只是想体验一把本地跑大模型的感觉——Open WebUI都是目前最好的选择。
一行命令,60秒,开箱即用:
pip install open-webui && open-webui serve相关地址:
- GitHub仓库:https://github.com/open-webui/open-webui
- 官方网站:https://openwebui.com
- 官方文档:https://docs.openwebui.com
- 社区市场(插件/模型/提示词):https://openwebui.com
- Discord社区:https://discord.gg/5rJgQTnV4s
- Ollama官网(本地模型引擎):https://ollama.com
读者评论
0 条暂无评论,来分享你的看法吧
相关推荐
结合当前内容、你的浏览习惯和搜索偏好推荐。
OpenCode:145K星的开源AI编程Agent,Claude Code的最佳平替
你是不是也受够了? 写代码写到凌晨两点,debug一个接口返回值的问题翻了三天日志还没头绪;接手别人的项目,看着满屏的 utils.js 和 helpers.ts 完全不知道从哪看起;每次想用AI辅助写代码,不是被Claude Code的订阅价格劝退,就是怕代码上传到别人服务器不安全。如果你
Thunderbird Thunderbolt:Mozilla开源AI客户端,本地换模型
你有没有这种感觉——用ChatGPT怕数据被拿去训练,用Claude又担心隐私泄露,想跑本地模型却折腾不好环境,换一个AI工具就要重新适应一个新界面?更别提有些平台动不动就封号、限速,聊天记录还得导来导去。更烦人的是,你想用不同模型就得打开不同的App——GPT在ChatGPT里,Claude在An

