AnythingLLM:零门槛搭建你的私有ChatGPT,数据完全自己掌控
AnythingLLM:零门槛搭建你的私有ChatGPT,数据完全自己掌控 你是不是也有这些烦恼? 每次把公司文档、客户资料传到ChatGPT上,心里总有点不踏实——万一数据泄露了怎么办?想用AI分析内部资料,又不敢把东西放到云上;想给团队每人配个AI助手,又不想每人花200块充Cha
AnythingLLM:零门槛搭建你的私有ChatGPT,数据完全自己掌控
你是不是也有这些烦恼?
每次把公司文档、客户资料传到ChatGPT上,心里总有点不踏实——万一数据泄露了怎么办?想用AI分析内部资料,又不敢把东西放到云上;想给团队每人配个AI助手,又不想每人花200块充ChatGPT Plus;好不容易找了个开源方案,结果配置一大堆,光看文档就头大了……
如果你有以上任何一种感受,那今天这个项目你一定会喜欢。
AnythingLLM 是什么?
AnythingLLM 是一个全功能的私有AI平台,你可以把它理解为"自己搭建的ChatGPT"——但它不只是聊天,还能让AI读你的文档、帮你执行任务、甚至搭自动化工作流,而且所有数据都存在你自己的电脑或服务器上,没有任何第三方能看到。
项目在GitHub上已经有 58,000+ 颗星,采用MIT开源协议,完全可以商用。
核心功能一览
- 📄 文档对话(RAG):上传PDF、Word、TXT等文档,AI基于文档内容精确回答,不再瞎编
- 🤖 内置AI Agent:不只是聊天,Agent可以浏览网页、运行代码、执行自动化任务
- 🔧 无代码Agent构建器:可视化拖拽创建自定义AI工作流(Agent Flows),不会写代码也能搭自动化
- 🔌 MCP协议兼容:完整支持MCP(Model Context Protocol),可以接入各种外部工具,扩展能力几乎无限
- 👥 多用户+权限管理:支持多用户使用,每人独立权限,适合团队部署
- 🖼️ 多模态支持:无论开源还是闭源模型,都支持图片、语音输入
- ⚡ 智能工具选择:给Agent分配无限工具的同时,减少80%的token消耗,省钱又高效
- 🌐 网站嵌入聊天窗口:可以把AnythingLLM聊天组件嵌入到你自己的网站上
- 🧩 浏览器扩展:Chrome浏览器插件,随时随地和AI对话
- 📡 完整API接口:开发者友好,方便自定义集成到你的系统里
安装步骤:三选一,总有一款适合你
AnythingLLM提供三种安装方式,从最简单到最灵活,按需选择。
方式一:桌面应用(最推荐小白使用)
适合人群:个人用户、不想折腾的开发者
最低配置:2GB RAM + 10GB磁盘空间
Windows 安装
- 打开下载页面:https://anythingllm.com/download
- 点击 Windows 下载安装包(.exe文件)
- 双击安装包,一路"下一步"即可
- 安装完成后,桌面上会出现 AnythingLLM 图标,双击打开
- 首次打开会引导你选择LLM模型,选一个你喜欢的就行
Mac 安装
- 打开下载页面:https://anythingllm.com/download
- 点击 Mac 下载 .dmg 文件(注意区分 Intel 和 Apple Silicon 芯片)
- 双击 .dmg 文件,把 AnythingLLM 拖到 Applications 文件夹
- 首次打开时,如果提示"无法验证开发者",右键点击 → 选择"打开"即可
- 按引导完成初始配置
Linux 安装
- 打开下载页面:https://anythingllm.com/download
- 下载 .AppImage 文件
- 添加执行权限:
chmod +x AnythingLLM*.AppImage- 运行:
./AnythingLLM*.AppImage- 按引导完成初始配置
💡 桌面版的优点:零配置,下载就能用,自带的LanceDB向量数据库无需额外安装。对于大多数个人用户来说,这是最省心的方式。
方式二:Docker 部署(推荐团队/服务器使用)
适合人群:团队使用、服务器部署、需要多用户管理
前提条件
- 已安装 Docker 和 Docker Compose
- 服务器最低配置:2GB RAM + 10GB磁盘
安装步骤
# 1. 克隆项目
git clone https://github.com/Mintplex-Labs/anything-llm.git
# 2. 进入docker目录
cd anything-llm/docker
# 3. 复制环境变量配置文件
cp .env.example .env
# 4. 编辑 .env 文件,配置你的LLM(下面有示例)
# 5. 启动服务
docker compose up -d启动后,打开浏览器访问:http://localhost:3001
配置示例一:连接本地 Ollama(完全离线,最安全)
编辑 .env 文件,添加或修改以下内容:
LLM_PROVIDER='ollama'
OLLAMA_BASE_PATH='http://host.docker.internal:11434'
OLLAMA_MODEL_PREF='qwen3:8b'
OLLAMA_MODEL_TOKEN_LIMIT=8192💡 这里用
host.docker.internal是因为 Ollama 运行在宿主机上,Docker容器需要通过这个地址访问宿主机。如果你是Linux系统,可能需要替换为宿主机的实际IP地址。
💡 推荐模型:通义千问(qwen3)系列对中文支持非常好,8b参数版在普通电脑上就能流畅运行。
配置示例二:连接 DeepSeek(性价比之王)
LLM_PROVIDER='openai'
OPEN_AI_KEY='sk-你的deepseek-api-key'
OPEN_MODEL_PREF='deepseek-chat'
OPEN_AI_BASE_PATH='https://api.deepseek.com/v1'💡 DeepSeek的API价格极低,大约是ChatGPT的1/100,中文能力强,是性价比最高的选择之一。
配置示例三:连接 Moonshot AI(月之暗面/Kimi)
和DeepSeek类似,使用OpenAI兼容接口:
LLM_PROVIDER='openai'
OPEN_AI_KEY='你的moonshot-api-key'
OPEN_MODEL_PREF='moonshot-v1-8k'
OPEN_AI_BASE_PATH='https://api.moonshot.cn/v1'方式三:裸机部署(不用Docker)
适合人群:不想用Docker、想要更多控制权的开发者
前提条件
- NodeJS v18+
- Yarn 包管理器
安装步骤
# 1. 克隆项目
git clone https://github.com/Mintplex-Labs/anything-llm.git
cd anything-llm
# 2. 安装依赖并初始化
yarn setup
# 3. 复制环境变量配置文件
cp server/.env.example server/.env
# 4. 编辑 server/.env 配置你的LLM
# 5. 构建前端
cd frontend
yarn build
cd ..
# 6. 启动后端服务(终端1)
cd server
node index.js
# 7. 启动文档收集服务(终端2)
cd collector
node index.js启动后访问:http://localhost:3001
使用方法:从简单到进阶
用法一:和文档聊天(最基础)
这是AnythingLLM最核心的用法——上传文档,让AI基于文档内容回答。
- 打开AnythingLLM,创建一个工作区(Workspace)
- 点击上传文档,支持 PDF、TXT、DOCX、CSV、XLSX 等格式
- 文档上传后会自动被分块、建立向量索引
- 在聊天框中提问,AI会基于你上传的文档精确回答,并告诉你答案来自哪个文档的哪一页
💡 这就是RAG(检索增强生成)技术——AI不再凭记忆答题,而是先从你的文档中找到相关内容,再基于这些内容组织答案,准确性大大提高。
用法二:使用AI Agent(进阶)
除了聊天,AnythingLLM内置的Agent可以帮你做更多事:
- 浏览网页:让Agent去网上搜索信息、抓取网页内容
- 运行代码:让Agent写Python/JavaScript代码并执行,比如帮你处理数据、生成图表
- 调用MCP工具:如果你配置了MCP服务器,Agent可以调用各种外部工具
使用方法很简单:在聊天界面中,点击"Agent"模式,就像和真人助手对话一样描述你要做的事。
用法三:创建Agent工作流(高级)
AnythingLLM的可视化Agent Flow构建器是最强大的功能之一:
- 进入Agent Flows页面
- 拖拽组件到画布上,像搭积木一样组合工作流
- 比如你可以搭建一个"每日新闻总结"工作流:
- 第一步:Agent浏览指定新闻网站 - 第二步:提取关键信息 - 第三步:总结摘要 - 第四步:发送到你的邮箱
全程零代码,拖拽即可完成。
实际场景举例
| 场景 | 怎么用AnythingLLM |
|---|---|
| 📚 学习党读论文 | 上传PDF论文,直接问AI"这篇论文的创新点是什么",AI基于论文内容回答 |
| 🏢 企业内部知识库 | 把公司制度、流程、FAQ文档全部上传,新员工直接问AI就能找到答案 |
| 💻 程序员看源码 | 上传源码文件,问AI"这个函数做了什么",快速理解不熟悉的代码 |
| 📊 数据分析师 | 上传Excel/CSV,让AI帮你做初步统计分析和趋势总结 |
| 🤝 客服团队 | 把产品手册和常见问题上传,客服人员直接问AI获取标准回答 |
| 🔬 法律工作者 | 上传法律条文和案例文件,精确检索相关条款,不再翻厚厚的法条书 |
| 🌐 网站主 | 在自己的网站上嵌入AnythingLLM聊天窗口,为访客提供7×24小时AI客服 |
跟同类项目对比
| 特性 | AnythingLLM | Open WebUI | ChatGPT | Dify |
|---|---|---|---|---|
| 定位 | 全功能私有AI平台 | 浏览器聊天界面 | 云端AI服务 | AI应用开发平台 |
| 私有部署 | ✅ 完全私有 | ✅ 完全私有 | ❌ 数据在云端 | ✅ 完全私有 |
| 文档对话RAG | ✅ 内置 | ✅ 内置 | ✅ 需上传 | ✅ 内置 |
| AI Agent | ✅ 内置 | ❌ 无 | ✅ 有 | ✅ 有 |
| 无代码工作流 | ✅ Agent Flows | ❌ 无 | ❌ 无 | ✅ 工作流编排 |
| MCP协议 | ✅ 完整支持 | ❌ 不支持 | ❌ 不支持 | ❌ 不支持 |
| 多用户权限 | ✅ 支持 | ✅ 支持 | ❌ 仅Pro版 | ✅ 支持 |
| 桌面应用 | ✅ 原生桌面版 | ❌ 仅Web | ❌ 仅Web | ❌ 仅Web |
| 中国模型支持 | ✅ DeepSeek/Kimi/通义 | ⚠️ 需手动配置 | ✅ 内置 | ⚠️ 需手动配置 |
| 上手难度 | 🟢 零门槛 | 🟡 需Docker | 🟢 零门槛 | 🟡 需一定开发基础 |
| 开源协议 | MIT | MIT | 不开源 | Apache 2.0 |
简单总结:如果你想要一个能直接用的、功能全面的、数据完全私有的AI平台,AnythingLLM是目前最佳选择。
小结
AnythingLLM 让你用最简单的方式搭建一个完全私有的AI助手——数据在自己手里,模型可以选最便宜的,功能从文档对话到自动化工作流一应俱全。桌面版下载即用,Docker版一条命令启动,中文模型友好,是中国用户自建AI平台的最佳选择之一。
🔗 项目地址:https://github.com/Mintplex-Labs/anything-llm 🔗 官网下载:https://anythingllm.com 🔗 中文文档:https://github.com/Mintplex-Labs/anything-llm/blob/master/locales/README.zh-CN.md
读者评论
0 条暂无评论,来分享你的看法吧
相关推荐
结合当前内容、你的浏览习惯和搜索偏好推荐。

