返回广场

Thunderbird Thunderbolt:Mozilla开源AI客户端,本地换模型

你有没有这种感觉——用ChatGPT怕数据被拿去训练,用Claude又担心隐私泄露,想跑本地模型却折腾不好环境,换一个AI工具就要重新适应一个新界面?更别提有些平台动不动就封号、限速,聊天记录还得导来导去。更烦人的是,你想用不同模型就得打开不同的App——GPT在ChatGPT里,Claude在An

你有没有这种感觉——用ChatGPT怕数据被拿去训练,用Claude又担心隐私泄露,想跑本地模型却折腾不好环境,换一个AI工具就要重新适应一个新界面?更别提有些平台动不动就封号、限速,聊天记录还得导来导去。更烦人的是,你想用不同模型就得打开不同的App——GPT在ChatGPT里,Claude在Anthropic里,本地模型又得一堆配置。如果你也有这些困扰,那你今天一定要认识一下 Thunderbird Thunderbolt。

一、Thunderbird Thunderbolt 是什么?

Thunderbird Thunderbolt 是由 Mozilla 资助、Thunderbird 团队开发的一款开源 AI 客户端。简单来说,它不是又一个 ChatGPT,而是一个让你自己选模型、自己控数据、自己搭服务的统一入口。

项目 GitHub 地址:https://github.com/thunderbird/thunderbolt

目前星数已超 1,600(日增447,增长势头很猛),它最大的卖点可以用一句话概括:AI You Control——你做主的 AI

这意味着什么?

  • 选择自由:你想用 OpenAI 就用 OpenAI,想用 Claude 就用 Claude,想跑本地模型就跑本地模型,想接私有部署就接私有部署,完全由你说了算
  • 数据自主:所有聊天记录存在本地 SQLite 数据库中,不强制上传任何云服务器。还有可选的端到端加密,连服务端都看不到你聊了什么
  • 拒绝锁定:MPL 2.0 开源协议,代码公开透明,你随时可以 fork、修改、迁移,不会被任何厂商卡脖子

对于一个中国用户来说,这意味着什么?意味着你可以用 DeepSeek、智谱这些国产模型,也可以用 Ollama 在自己电脑上跑模型,完全不受 OpenAI 封禁的影响。你的数据、你的模型、你的选择。

二、核心功能一览

先上一张完整的功能清单表格,让你一目了然:

功能状态说明
全平台客户端✅ 已完成Web、Mac、Linux、Windows、Android、iOS 七端全覆盖
聊天模式✅ 已完成和各种 AI 模型自由对话
搜索模式✅ 已完成联网搜索增强回答,有据可查
研究模式预览深度调研助手,适合写论文、做报告
MCP 支持预览接入外部工具和能力,让 AI 能操作更多东西
自定义模型/提供商✅ 已完成可接入任何兼容 OpenAI API 的模型服务
Google/Microsoft 集成✅ 已完成登录你现有的账号体系
Ollama 兼容✅ 已完成本地跑模型零门槛,不需要显卡也能跑
端到端加密预览聊天内容只有你看得到,服务器也解不开
跨设备云同步预览手机聊一半,电脑接着聊,无缝衔接
任务管理预览AI 帮你管待办事项,说一句话就创建任务
Agent 记忆/技能计划中让 AI 记住你的偏好和习惯,越用越懂你

技术亮点再多说两句:

  • 离线优先架构:这是 Thunderbolt 的一大特色。网络断了?不怕,本地模型照常用。坐飞机、在地铁里、在信号差的地方,照样和 AI 聊天
  • 端到端加密:聊天记录加密存储,就算是自部署的服务器管理员也看不到你的对话内容
  • MPL 2.0 开源:免费的,可商用的,社区驱动的。Mozilla 资助意味着这个项目有稳定的资金支持,不会突然跑路
  • 技术栈现代:前端 React 19 + Vite + Radix UI,后端 Elysia on Bun,桌面端 Tauri,存储 SQLite——全是2024-2025年最前沿的技术选择,性能好、体验佳

三、安装步骤(手把手教你搞定)

Thunderbolt 的安装方式主要有两种:Docker 部署(最简单,推荐新手)和开发模式(适合想二次开发或者调试的同学)。

方式一:Docker Compose 部署(推荐新手)

这是最省事的方式,只要你有 Docker 就行。不管你用的是 Mac、Windows 还是 Linux,步骤都差不多。

第一步:安装 Docker

先确认你电脑上有没有 Docker。在终端(Mac/Linux)或 PowerShell(Windows)里输入:

docker --version

如果显示版本号就说明已安装。没有的话按下面方法装:

  • Mac:去 Docker 官网下载 Docker Desktop 安装包,拖进应用文件夹即可
  • Windows:同样去 Docker 官网下载 Docker Desktop for Windows,安装后重启电脑。注意 Windows 需要开启 WSL2 或者 Hyper-V
  • Linux(Ubuntu/Debian)
sudo apt update
sudo apt install docker.io docker-compose-plugin
sudo systemctl start docker
sudo systemctl enable docker

# 把当前用户加入 docker 组,这样不用每次都 sudo
sudo usermod -aG docker $USER
# 退出终端重新登录才能生效

第二步:克隆项目并启动

打开终端,依次执行以下命令:

# 克隆项目代码到本地
git clone https://github.com/thunderbird/thunderbolt.git

# 进入项目目录
cd thunderbolt

# 进入部署目录
cd deploy

# 复制环境变量配置文件(里面有默认配置,一般不用改)
cp .env.example .env

# 一键构建并启动!
docker compose up --build

第一次启动需要拉取 Docker 镜像和编译项目,可能要等3-5分钟,取决于你的网速。你会看到终端不断滚动日志,这是正常的。

第三步:开始使用

等日志不再滚动,说明服务已经启动好了。打开浏览器,访问:

http://localhost:3000

首次登录使用以下默认账号:

  • 邮箱:demo@thunderbolt.io
  • 密码:demo

登录成功后,你就能看到 Thunderbolt 的主界面了!是不是很简单?

💡 小提示:如果你想修改端口号或其他配置,编辑 deploy/.env 文件即可。改完后重启 Docker 容器生效。

方式二:开发模式安装(适合想折腾的开发者)

如果你想在本地跑开发版,参与贡献或者深度定制,可以走开发模式。需要准备以下工具:

工具干什么的怎么装
BunJS/TS 运行时,比 Node.js 快很多Mac/Linux:终端执行 `curl -fsSL https://bun.sh/install \bash;Windows:PowerShell 执行 irm bun.sh/install.ps1 \iex`
Rust编译 Tauri 桌面端需要访问 rustup.rs,按照页面指引一键安装
Docker后端依赖跑在容器里同上方式一
make构建命令工具Mac 自带;Linux 用 sudo apt install make;Windows 用 choco 或装 GnuWin32

Mac 开发环境

Mac 用户的开发体验最顺畅,步骤如下:

# 1. 克隆项目
git clone https://github.com/thunderbird/thunderbolt.git
cd thunderbolt

# 2. 一键安装所有依赖
make setup

# 3. 配置环境变量
cp .env.example .env
cd backend && cp .env.example .env && cd ..

# 4. 启动后端服务(Docker 容器)
make docker-up

# 5. 启动前端开发服务器(浏览器模式)
bun dev

# 或者如果你想跑桌面版应用
bun tauri:dev:desktop

Windows 开发环境

Windows 用户稍微多一步:

# 1. 先安装 Bun(PowerShell 管理)
powershell -c "irm bun.sh/install.ps1 | iex"

# 2. 安装 Rust(去 https://win.rustup.rs/x86_64 下载安装器运行)

# 3. 克隆项目
git clone https://github.com/thunderbird/thunderbolt.git
cd thunderbolt

# 4. 安装依赖
make setup

# 5. 配置环境变量(Windows 用 copy 代替 cp)
copy .env.example .env
cd backend && copy .env.example .env && cd ..

# 6. 启动后端
make docker-up

# 7. 启动前端
bun dev

Linux 开发环境

# 1. 安装 Bun
curl -fsSL https://bun.sh/install | bash

# 2. 安装 Rust
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh

# 3. 克隆并进入项目
git clone https://github.com/thunderbird/thunderbolt.git
cd thunderbolt

# 4. 安装依赖
make setup

# 5. 配置环境变量
cp .env.example .env
cd backend && cp .env.example .env && cd ..

# 6. 启动后端
make docker-up

# 7. 启动前端
bun dev

⚠️ 如果桌面模式(bun tauri:dev:desktop)编译报错,别慌,先用 bun dev 跑浏览器版,功能完全一样。桌面版需要 Rust 编译环境,有时候会出点小问题。

四、使用方法:从入门到进阶

装好 Thunderbolt 后,怎么开始用呢?下面从最简单的讲起,一路带你到进阶玩法。

入门:接入一个云端 AI 模型

安装好 Thunderbolt 后,第一件事就是接入一个模型。这里以接入 OpenAI 为例:

  1. 打开 Thunderbolt,进入主界面
  2. 点击左侧边栏的 设置(齿轮图标)
  3. 找到 模型提供商 选项卡
  4. 点击选择 OpenAI
  5. 在 API Key 输入框填入你的 OpenAI API Key(在 https://platform.openai.com/ 注册申请)
  6. 点击保存

回到聊天界面,在顶部选择 GPT-4o 或其他可用模型,输入你的问题,就可以开始聊天了!

如果觉得 OpenAI 太贵,也可以选其他提供商,步骤类似——进入设置,选择对应提供商,填入 API Key,保存即可。

进阶1:本地跑模型,完全免费(Ollama)

不想花钱买 API?完全理解!用 Ollama 在本地跑模型,零成本,数据还不出本机。

第一步:安装 Ollama

# Mac 和 Linux 用户
curl -fsSL https://ollama.com/install.sh | sh

# Windows 用户
# 去 https://ollama.com/download 下载安装包,双击安装

第二步:下载一个模型

在终端中执行:

# 推荐先用 Qwen2.5 7B(通义千问,中文能力很强)
ollama pull qwen2.5:7b

# 如果你电脑配置好,也可以试更大的
ollama pull qwen2.5:14b

# 或者试试 Meta 的 Llama 3.1
ollama pull llama3.1:8b

下载速度取决于你的网速。7B 模型大约4GB,14B 大约8GB。

第三步:在 Thunderbolt 中连接 Ollama

  1. 打开 Thunderbolt 设置
  2. 模型提供商选择 Ollama
  3. 服务地址填写 Ollama 默认地址(本地 11434 端口)
  4. 保存后就能在聊天界面选择本地模型了

💡 配置建议:没有独立显卡的电脑,建议选 7B 参数量的模型,8GB 内存就能流畅运行。有 NVIDIA 显卡的话,可以跑 14B 甚至更大的模型,显存8GB以上体验最佳。

进阶2:接入国产模型,速度更快

作为中国用户,你可能更想用国产模型——延迟低、中文好、价格便宜。Thunderbolt 支持任何兼容 OpenAI API 格式的服务,接入国产模型非常方便:

  1. 打开设置,选择 自定义提供商
  2. 填写 API 地址(各厂商的 OpenAI 兼容接口)
  3. 填入你的 API Key
  4. 填写模型名称
  5. 保存

举几个实际例子:

接入 DeepSeek(深度求索):

  • API 地址:https://api.deepseek.com/v1
  • 模型名:deepseek-chat
  • 去 DeepSeek 官网注册获取 API Key

接入智谱 AI(ChatGLM):

  • API 地址:https://open.bigmodel.cn/api/paas/v4
  • 模型名:glm-4
  • 去智谱开放平台注册获取 API Key

接入月之暗面(Kimi):

  • API 地址:https://api.moonshot.cn/v1
  • 模型名:moonshot-v1-8k
  • 去 Moonshot 官网注册获取 API Key

国产模型的优势很明显:不需要翻墙,速度快,中文理解能力强,价格还便宜。DeepSeek 的 API 价格大约是 OpenAI 的十分之一。

进阶3:使用搜索模式获得靠谱回答

普通 AI 聊天有个大问题——它会一本正经地胡说八道。Thunderbolt 内置了搜索模式,让 AI 先搜索互联网,再基于真实搜索结果来回答,靠谱多了:

  1. 在聊天界面顶部,找到模式切换按钮
  2. 切换到 搜索模式
  3. 输入你想查的内容
  4. AI 会先搜索相关资料,然后基于搜索结果给你一个有据可查的回答

搜完之后,每个回答都会附带信息来源链接,你可以点进去验证。比如问"2025年诺贝尔物理奖给了谁",搜索模式会给你准确答案加上引用链接,而不是凭空编造。

进阶4:MCP 工具集成让 AI 更强大

MCP(Model Context Protocol)是目前 AI 领域的热门话题,它让 AI 不只能聊天,还能调用外部工具——查天气、读文件、操作数据库、调用 API 等等。Thunderbolt 正在积极支持 MCP,目前处于预览阶段:

  1. 在设置中找到 MCP 配置
  2. 添加你需要的 MCP 服务器(比如文件系统、Web 搜索等)
  3. 保存后,聊天时 AI 就能自动调用这些工具

虽然还是预览功能,但已经能体验到 AI 不只是"嘴上说说",而是真能帮你干活的魅力了。

五、实际场景举例

光说不练没感觉,看看这些真实使用场景:

场景怎么用 Thunderbolt推荐模型
日常写作润色聊天模式直接输入文本,让 AI 帮你改措辞、调语调GPT-4o / Claude / Qwen2.5
论文资料查找搜索模式联网搜索,AI 总结要点并附带引用GPT-4o + 搜索模式
代码编写调试聊天模式,贴代码让 AI 分析问题并给出修复方案Claude / DeepSeek
隐私敏感对话用 Ollama 跑本地模型,所有数据绝不出本机Qwen2.5 本地
团队内部助手Docker 私有部署到公司服务器,接入内网模型私有部署的模型
多模型对比评测同一个问题发给 GPT、Claude、DeepSeek,对比回答质量同时配多个提供商
手机上随时问下载 Android/iOS 客户端,云同步聊天记录任意已配置模型
英语口语练习聊天模式设定"你是一个英语老师",全程英文对话GPT-4o
周报/总结撰写聊天模式输入要点,让 AI 帮你扩展成完整文章DeepSeek(便宜)

六、与同类产品对比

市面上的 AI 客户端不少,Thunderbolt 到底好在哪?看这张对比表就清楚了:

特性ThunderboltChatGPTClaude 桌面端Open WebUIJan
开源协议✅ MPL 2.0❌ 闭源❌ 闭源✅ MIT✅ AGPL
本地模型支持✅ 通过 Ollama❌ 不支持❌ 不支持✅ 通过 Ollama✅ 内置引擎
多模型自由切换✅ 随意切换❌ 仅限自家❌ 仅限自家✅ 支持多模型✅ 支持多模型
端到端加密✅ 预览中
支持自部署✅ Docker Compose✅ Docker
全平台覆盖✅ 七端全覆盖✅ Web+App✅ Mac+Win✅ 主要Web端❌ 仅桌面端
离线使用✅ 离线优先架构❌ 必须联网❌ 必须联网⚠️ 能力有限✅ 支持
MCP 工具协议✅ 预览中✅ 插件生态✅ 工具集成✅ 函数调用❌ 不支持
搜索增强✅ 内置搜索模式✅ 联网搜索❌ 不支持⚠️ 需要 RAG❌ 不支持
数据所有权完全归你归 OpenAI归 Anthropic完全归你完全归你
厂商锁定风险严重严重
项目背景Mozilla 资助OpenAI 公司Anthropic 公司社区维护社区维护
当前成熟度早期开发成熟产品成熟产品较成熟较成熟

总结一下对比的核心差异:

  • 对比 ChatGPT / Claude:你被绑定在单一模型上,数据存在别人的服务器上,不能自部署。Thunderbolt 打破了这些限制
  • 对比 Open WebUI:Thunderbolt 多了端到端加密、全平台原生客户端(包括移动端)、MCP 支持,还有 Mozilla 的稳定资助
  • 对比 Jan:Thunderbolt 支持移动端,有搜索模式,有 MCP 支持,活跃度更高

当然 Thunderbolt 也有不足——它还处于早期开发阶段,功能不如 ChatGPT 那么完善稳定。但如果你在乎数据自主、模型自由、开源透明,Thunderbolt 目前是最佳选择之一。

七、注意事项(重要!)

开始使用之前,几个重要的事情你需要知道:

  1. 项目仍处于早期阶段:Thunderbolt 目前正在进行安全审计,不建议直接用于生产环境处理高度敏感的数据。日常使用没问题,但关键数据还是多留个心眼
  2. 默认 demo 账号仅供体验:Docker 部署后会自带 demo 账号,方便你快速试用。如果要长期使用,请务必修改配置,创建自己的账号
  3. 本地模型需要硬件支撑:7B 模型至少需要 8GB 内存,13B 需要 16GB 内存,30B 以上建议有独立显卡。具体跑什么模型要看你电脑配置,别贪大
  4. API Key 要保管好:不要把你从各平台申请的 API Key 提交到 Git 仓库里。项目的 .env 文件已经在 .gitignore 中,不会被意外提交
  5. 国内网络提示:直接访问 OpenAI、Claude 等境外 API 可能需要网络配置。更简单的做法是直接用 DeepSeek、智谱等国产模型替代,体验一样好

八、常见问题解答

Q:我不懂技术,能用好 Thunderbolt 吗? A:完全可以。Docker 部署只需要几行命令,配置界面也很直观。如果你实在不想折腾部署,等正式版发布后会有现成的安装包。

Q:必须要用 Docker 吗? A:开发模式不需要 Docker,但后端依赖(数据库等)仍然建议用 Docker 跑,更省事。Docker 部署是最简单的入门方式。

Q:本地模型效果怎么样? A:7B 模型的中文能力已经相当不错了,日常对话、写作辅助完全够用。但复杂推理和专业领域问题,还是云端的 GPT-4o、Claude 等大模型效果更好。Thunderbolt 的优势恰恰在于你可以在一个客户端里自由切换。

Q:数据安全吗? A:本地模型模式数据完全不离开你的电脑。云端模型模式下,数据会经过 Thunderbolt 的加密层,项目正在做端到端加密。自部署模式下,你完全掌控数据流向。

九、小结

Thunderbird Thunderbolt 让你用一个客户端搞定所有 AI 模型——本地跑也行、云端调也行,数据永远在你自己手里。Mozilla 出品、开源免费、七端全覆盖,这是真正属于你的 AI 助手。

🔗 项目地址:https://github.com/thunderbird/thunderbolt

🔗 官网:https://thunderbird.net/thunderbolt/

写评论

读者评论

0

暂无评论,来分享你的看法吧

相关推荐

结合当前内容、你的浏览习惯和搜索偏好推荐。