返回广场

Open WebUI:131K星的开源AI平台,让你在家跑大模型,数据不出门

你是不是也遇到过这些糟心事? 周一早上赶方案,打开ChatGPT想让它帮你润色一份涉密的招投标文件,犹豫了半天——这文件里有公司核心报价和客户信息,传到云端到底安不安全?最后你还是叹口气,手动改了三个小时。 又或者,你正在用Claude写代码,思路正顺,突然弹出来"Rate limit e

你是不是也遇到过这些糟心事?

周一早上赶方案,打开ChatGPT想让它帮你润色一份涉密的招投标文件,犹豫了半天——这文件里有公司核心报价和客户信息,传到云端到底安不安全?最后你还是叹口气,手动改了三个小时。

又或者,你正在用Claude写代码,思路正顺,突然弹出来"Rate limit exceeded"——流量用完了,请稍后再试。等你喝完一杯咖啡回来,思路全断了。

再或者,你好不容易翻墙用上了GPT-4o,但公司内网管控严格,同事之间没法共享对话和工具,每个人都得自己搞一套,效率低到令人发指。

这些痛点,是中国AI用户每天都在经历的日常:数据隐私没法保障、云端服务随时断连、多人协作困难、费用持续上涨、国产场景适配不足。

有没有一种方案,让你既能用上全球最强的大模型,又能把数据稳稳留在自己手里?

有。它叫 Open WebUI


Open WebUI 到底是什么?

Open WebUI 是一个开源、可自托管(self-hosted)、功能丰富的AI平台,设计目标就是完全离线运行。它支持多种大语言模型(LLM)运行器,包括 Ollama(本地模型引擎)和所有 OpenAI兼容API(包括ChatGPT、Claude、DeepSeek、通义千问等),并且内置了RAG(检索增强生成)推理引擎。

简单来说:它就像你私有的ChatGPT网页版,但你可以自己决定用什么模型、数据存在哪里、谁能访问。

截至2026年4月,Open WebUI在GitHub上已经获得 131,000+ 星标,下载量超过 2.9亿次,社区成员超过 37.2万人。这个数据在开源AI项目中堪称顶级,说明它不是什么玩具项目,而是被全球开发者真金白银用起来的生产力工具。

一句话总结:Open WebUI = ChatGPT的界面体验 + 本地部署的数据安全 + 开源免费的可定制性。

术语解释: - 自托管(self-hosted):软件装在你自己的电脑或服务器上,数据不经过第三方,类似于自己开网站 vs 用微博的区别 - LLM(大语言模型):像ChatGPT、DeepSeek这类能理解和生成人类语言的AI模型 - RAG(检索增强生成):让AI先从你的文档中找资料再回答,减少"胡说八道"的技术 - Ollama:一个简化本地运行大模型的开源工具,一行命令就能下载和运行模型 - API:应用程序编程接口,这里指模型提供的调用通道,有了API就能接入各种模型服务


核心功能一览

Open WebUI的功能列表长得让人震撼,我挑最实用的逐一说给你听:

1. 多模型统一管理

  • 支持接入 Ollama 本地模型、OpenAI API、Anthropic Claude、Google Gemini、Mistral、Groq、OpenRouter 等 所有OpenAI兼容API
  • 在同一个对话里,你可以 同时和多个模型聊天,对比它们的回答(Many Models Conversations)
  • 切换模型只需点一下,本地DeepSeek和云端GPT-4o之间无缝切换

2. 本地RAG(检索增强生成)

  • 支持 9种向量数据库(ChromaDB、PGVector、Qdrant、Milvus、Elasticsearch、OpenSearch、Pinecone、S3Vector、Oracle 23ai)
  • 支持多种文档解析引擎(Tika、Docling、Document Intelligence、Mistral OCR等)
  • 直接把PDF、Word、Excel拖进聊天窗口,用 # 命令调用文档库,AI回答时自动引用原文出处
  • 关键:所有数据处理都在你本地完成,文档不上传到任何云端

3. 联网搜索集成

  • 内置15+搜索引擎支持:SearXNG、Google PSE、Brave Search、DuckDuckGo、Bing、Kagi、Tavily、Perplexity 等
  • 搜索结果直接注入聊天上下文,AI基于实时搜索结果回答问题
  • 还支持用 # + 网址的方式直接把网页内容拉进对话

4. 语音和视频通话

  • 语音转文字(STT):支持本地Whisper、OpenAI、Deepgram、Azure
  • 文字转语音(TTS):支持Azure、ElevenLabs、OpenAI、 Transformers、WebAPI
  • 支持 免手操作的语音/视频通话模式,相当于免费的AI语音助手

5. 图像生成与编辑

  • 支持 OpenAI DALL-E、Gemini、ComfyUI(本地)、AUTOMATIC1111(本地Stable Diffusion)
  • 不仅能生图,还能用自然语言指令对图片进行编辑
  • 本地生图引擎意味着你的提示词和图片都不需要经过第三方

6. 权限管理与多人协作

  • 基于角色的访问控制(RBAC):管理员可以精细控制谁用什么模型、谁上传什么文档
  • 用户组管理:按部门/项目创建用户组,分配不同权限
  • 支持企业级认证:LDAP/Active Directory、SCIM 2.0、SSO、OAuth
  • 适合团队/公司内部署,每个人都有独立账号和对话历史

7. Python工具与插件扩展

  • 内置Python代码编辑器,可以写自定义函数让AI调用(BYOF——Bring Your Own Function)
  • Pipelines插件框架:支持速率限制、使用监控(Langfuse)、实时翻译、毒消息过滤等
  • 社区提供大量现成插件,在 openwebui.com 一键安装

8. 持久化存储与生产级部署

  • 支持SQLite(可选加密)、PostgreSQL数据库
  • 支持S3、Google Cloud Storage、Azure Blob Storage云存储后端
  • 内置 OpenTelemetry 可观测性支持(链路追踪、指标、日志)
  • Redis会话管理支持多节点水平扩展,适合企业级部署
  • 原生支持Google Drive和OneDrive/SharePoint文件导入

9. 其他实用功能

  • 完整Markdown和LaTeX数学公式渲染
  • 响应式设计 + PWA,手机端体验如同原生App
  • 多语言界面(i18n),中文已支持
  • 模型构建器:可视化创建和导入自定义模型角色
  • 离线模式:设置 HFHUBOFFLINE=1 即可完全断网运行

手把手安装教程

Open WebUI的安装方式非常多,我按 从易到难 的顺序介绍,覆盖三大操作系统和Docker环境。

方法一:Python pip安装(最简单,适合小白)

这是对新手最友好的方式,不需要Docker,只要你有Python环境。

前提条件:Python 3.11(注意版本,3.12及以上可能有兼容问题)

Mac / Linux / Windows 通用步骤:

# 第1步:安装Open WebUI
pip install open-webui

# 第2步:启动服务
open-webui serve

启动后打开浏览器访问 http://localhost:8080,首次使用注册管理员账号即可。

Mac用户注意:如果你用的是M系列芯片(M1/M2/M3/M4),Homebrew安装Python 3.11的命令是 brew install python@3.11 Windows用户注意:建议从 python.org 下载安装Python 3.11,安装时勾选"Add Python to PATH"。如果pip命令找不到,试试 python -m pip install open-webui

方法二:Docker安装(推荐,适合想长期使用的用户)

Docker的优势是环境隔离、升级方便、数据不丢失(通过volume挂载)。

前提条件:已安装Docker Desktop(Mac/Windows)或Docker Engine(Linux)

场景A:Ollama在本机(最常见)

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

-v open-webui:/app/backend/data 这行很重要!它把数据持久化到Docker卷中,否则重启后所有聊天记录都会丢失。

场景B:Ollama在另一台服务器上

docker run -d -p 3000:8080 \
  -e OLLAMA_BASE_URL=https://你的服务器地址 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

场景C:只用OpenAI API(不用本地模型)

docker run -d -p 3000:8080 \
  -e OPENAI_API_KEY=sk-你的密钥 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

场景D:一行命令搞定Open WebUI + Ollama(最省心)

这个镜像把Ollama和Open WebUI打包在一起,一个命令全搞定:

有N卡GPU的:

docker run -d -p 3000:8080 \
  --gpus=all \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

纯CPU运行(没有GPU也能用):

docker run -d -p 3000:8080 \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

安装完成后打开 http://localhost:3000 即可开始使用。

场景E:N卡GPU加速(推理更快)

需要先安装 NVIDIA CUDA Container Toolkit

docker run -d -p 3000:8080 \
  --gpus all \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:cuda

常见连接问题排查

如果Docker容器连不上Ollama,在docker命令中加 --network=host

docker run -d --network=host \
  -v open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

使用host网络后,访问地址变为 http://localhost:8080(不再是3000端口)。

方法三:各操作系统原生安装细节

Mac用户:

  1. 安装Homebrew:/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  2. 安装Python 3.11:brew install python@3.11
  3. 安装Ollama:brew install ollama 或从 ollama.com 下载
  4. 启动Ollama:ollama serve(另一个终端窗口)
  5. 下载模型:ollama pull qwen3:8b(推荐入门模型)
  6. 安装并启动Open WebUI:pip install open-webui && open-webui serve

Windows用户:

  1. 安装Docker Desktop(推荐)或Python 3.11
  2. 安装Ollama:从 ollama.com 下载Windows版安装包
  3. 如果用WSL2(Windows Subsystem for Linux):在WSL2中安装NVIDIA CUDA Toolkit可启用GPU加速
  4. 其余步骤同上

Linux用户(Ubuntu/Debian示例):

  1. 安装Docker:curl -fsSL https://get.docker.com | sh
  2. 安装Ollama:curl -fsSL https://ollama.com/install.sh | sh
  3. 下载模型:ollama pull deepseek-r1:14b
  4. 按上面的Docker命令启动Open WebUI

升级方法

Docker用户升级非常简单:

docker pull ghcr.io/open-webui/open-webui:main
docker rm -f open-webui
docker run -d -p 3000:8080 ...  # 重新运行,参数和之前一样

数据在Docker卷中,不会丢失。


三种使用方法:从入门到进阶

用法一:纯云端模式(最简单)

不需要本地模型,直接接入OpenAI/DeepSeek等API,就像自己部署了一个ChatGPT。

  1. 安装完Open WebUI后,进入 设置 → 连接
  2. 填入你的OpenAI API Key(或DeepSeek API Key等)
  3. 可选修改Base URL,例如接入国内中转:https://api.deepseek.com/v1/
  4. 回到聊天界面,选择模型,开始对话

适合人群:想体验Open WebUI界面、已有API Key的用户 优点:零额外硬件需求,即开即用 注意:数据仍然会发送到API提供商(但你的对话记录存在本地Open WebUI数据库中,不会被用于训练)

用法二:本地模型+RAG文档问答(最实用)

这是Open WebUI最核心的使用场景——让AI基于你自己的文档回答问题。

  1. 安装Ollama并下载模型(推荐 ollama pull qwen3:8bollama pull deepseek-r1:14b
  2. 在Open WebUI设置中确认Ollama连接状态为绿色
  3. 上传文档:点击聊天框旁的 + 按钮,选择PDF/Word/TXT文件
  4. 或在 工作区 → 文档 中批量上传文档到文档库
  5. 在聊天中用 # 命令选择文档,然后提问
  6. AI的回答会附上引用来源(Relevance Score),点击可查看原文

实际操作示例

  • 上传公司员工手册PDF → 提问"年假怎么算?" → AI从手册中找到答案并标注出处
  • 上传技术文档 → 提问"这个接口的参数格式是什么?" → AI给出精确引用

适合人群:需要私密文档问答的程序员、律师、研究人员、企业管理者

用法三:全栈企业部署(最进阶)

适合团队/公司内部署,完整利用权限管理、多模型、插件、监控等功能。

  1. 使用Docker Compose部署(含PostgreSQL + Redis + Ollama)
  2. 配置SSO/LDAP认证,对接公司身份系统
  3. 创建用户组,分配模型和文档访问权限
  4. 部署Pipelines插件:速率限制、使用监控、消息过滤
  5. 配置OpenTelemetry实现全链路监控
  6. 如有需要,接入S3/MinIO做文件存储后端

企业级Docker Compose参考架构:

Open WebUI(多节点+负载均衡)
├── PostgreSQL + PGVector(数据+向量)
├── Redis(会话+WebSocket)
├── Ollama/vLLM(模型推理层)
├── S3/MinIO(文件存储)
└── OpenTelemetry Collector(监控)

适合人群:IT运维团队、企业管理者、需要合规审计的场景


实际应用场景速查表

场景具体做法适用模型/功能数据安全级别
程序员写代码/Code Review本地模型+联网搜索查API文档DeepSeek-R1、Qwen3-Coder高(代码不出本机)
律师/法务查法条RAG上传法规库+案例库,AI基于文档回答任意模型+RAG极高(完全本地处理)
研究人员读论文RAG上传论文PDF,逐篇提问并对比Claude/GPT-4o+RAG
产品经理写PRD多模型对话,对比不同模型写出的方案云端API+本地模型切换
企业内部知识库批量上传内部文档,全员按权限访问Ollama本地模型+RBAC权限极高
客服/运维自动问答RAG上传FAQ+SOP,客服人员直接提问轻量本地模型(省资源)
学生学习/做题联网搜索+LaTeX数学公式渲染云端模型
销售写邮件/方案语音输入+AI润色+网页内容引用语音STT+TTS+Web浏览
人力资源/绩效考核RAG上传制度文件,AI辅助制度问答本地模型(敏感数据)极高
医疗/科研数据分析离线模式,数据完全不触网量化大模型+RAG极高

同类工具对比

特性Open WebUIChatGPT官方Ollama WebLM StudioAnythingLLMContinue(插件)
开源免费是(基础版)
自托管有限部分
本地模型(Ollama)
云端API是(多供应商)是(仅OpenAI)
多模型同时对话
RAG文档问答是(9种向量库)是(付费)有限
联网搜索是(15+引擎)是(付费)部分
语音/视频通话是(付费)
图像生成是(多引擎)是(付费)
权限管理(RBAC)是(企业版)部分
Python插件/工具是(Pipelines)
离线运行部分
手机端PWA
社区生态37万+成员超大Ollama社区中等VS Code生态
GitHub星标131K+不适用130K+58K+30K+22K+
上手难度中等极低中等中等

对比结论:Open WebUI的核心优势在于 "全能"——它是目前唯一一个同时具备本地模型+云端API+RAG+联网搜索+语音+图像+权限管理+插件扩展的统一AI平台。ChatGPT什么都行但要花钱和数据上云;Ollama只能跑本地模型;LM Studio偏个人使用;AnythingLLM专注RAG但功能面窄。Open WebUI把这些全打包在了一起,而且完全开源免费。


小结

Open WebUI 解决的核心问题非常明确:让每个人都能拥有自己的AI平台,数据在自己手里,模型自己选,用多少不受限。

对于中国用户来说,它的价值更加突出:

  1. 数据安全:无论是公司机密、个人隐私还是受监管的行业数据,都可以完全在本地处理,不用担心被云服务商用于模型训练
  2. 成本可控:本地模型零调用费用,云端API可以灵活选择性价比最高的供应商(DeepSeek、通义千问等国内API价格远低于OpenAI)
  3. 断网可用:在网关严格的企业内网、出差路上、甚至断网环境下,本地模型照常工作
  4. 协作友好:一次部署,团队全员使用,权限精细可控
  5. 中文生态好:天然支持中文界面,DeepSeek、Qwen等国产模型无缝接入

从2013K GitHub星标到2.9亿次下载,Open WebUI已经是一个成熟的、可信赖的开源项目。无论你是想搭一个私有ChatGPT来保护数据隐私,还是想在公司内部建一个AI知识库,或者只是想体验一把本地跑大模型的感觉——Open WebUI都是目前最好的选择。

一行命令,60秒,开箱即用:

pip install open-webui && open-webui serve

相关地址:

  • GitHub仓库:https://github.com/open-webui/open-webui
  • 官方网站:https://openwebui.com
  • 官方文档:https://docs.openwebui.com
  • 社区市场(插件/模型/提示词):https://openwebui.com
  • Discord社区:https://discord.gg/5rJgQTnV4s
  • Ollama官网(本地模型引擎):https://ollama.com
写评论

读者评论

0

暂无评论,来分享你的看法吧

相关推荐

结合当前内容、你的浏览习惯和搜索偏好推荐。