Manifest:让AI Agent自动选最便宜模型的开源路由器,省70%费用
你用Claude Code写代码、用OpenClaw做研究、用各种AI Agent处理日常工作——每次提问,不管简单还是复杂,默认都走最贵的模型。问一句"今天星期几",也用Claude Opus 4来回答;让它写一行Hello World,也调GPT-4o来生成。你的API账单月底一看,心都在滴血。更要命的是,模型偶尔还会挂,挂了就报错,你得手动切。还有的人同时续着ChatGPT Plus、Cl
你的AI Agent正在"烧钱",你却浑然不知
你用Claude Code写代码、用OpenClaw做研究、用各种AI Agent处理日常工作——每次提问,不管简单还是复杂,默认都走最贵的模型。问一句"今天星期几",也用Claude Opus 4来回答;让它写一行Hello World,也调GPT-4o来生成。你的API账单月底一看,心都在滴血。更要命的是,模型偶尔还会挂,挂了就报错,你得手动切。还有的人同时续着ChatGPT Plus、Claude Pro、GLM Coding Plan好几份订阅,但API调用还在按量额外付费——订阅的钱白花了。
有没有一个东西,能坐在你的Agent和大模型之间,自动判断问题难度,简单的用便宜模型、复杂的用贵模型,挂了自动切,还能把已有的订阅利用起来?Manifest就是干这个的。
Manifest是什么?
Manifest是一个开源智能模型路由器(Smart Model Router),专为个人AI Agent设计。它部署在你本地,充当Agent和大模型供应商之间的"中间人":收到请求 → 给请求打分 → 路由到最便宜且能处理的模型。简单问题走便宜快速模型,复杂问题走贵的大模型,全程自动,不需要你操心。项目在GitHub上已经获得5400+星,MIT开源协议,单日新增399星,热度飙升。
官网:https://manifest.build
核心功能一览
- 智能路由:23维度评分算法,2毫秒内完成请求难度评估,自动分4档——simple(简单)、standard(标准)、complex(复杂)、reasoning(推理),简单问题不浪费算力,复杂问题不出错
- 自动回退:模型挂了?网络抖了?自动切到下一个可用模型,你的Agent无感切换,再也不用盯着报错手动改配置
- 预算限制:设置每日/每月花费上限,到了就停,不会月底看到账单才后悔
- 300+模型支持:涵盖15+主流供应商,包括OpenAI、Anthropic、Google、DeepSeek、通义千问、Kimi、智谱、Mistral等,几乎你想用的都支持
- 复用已有订阅:ChatGPT Plus/Pro/Team、Claude Max/Pro、GLM Coding Plan、MiniMax Coding Plan、GitHub Copilot订阅——你已经在付钱的订阅,直接拿来当API用,不用额外按量付费
- 本地部署:Docker一键部署在你自己机器上,数据不出门,零中间商,请求直发供应商
- 透明评分:每个请求为什么选了那个模型,评分细节清清楚楚,不是黑箱
安装步骤:手把手教你部署
前提条件
- 已安装Docker和Docker Compose
- 至少2GB内存
- 端口3001未被占用
方式一:一键安装脚本(推荐,最省事)
Mac / Linux 打开终端,执行:
bash <(curl -sSL https://raw.githubusercontent.com/mnfst/manifest/main/docker/install.sh)脚本会自动拉取镜像、配置数据库、生成密钥、启动服务。跟着提示走就行,基本不用动脑子。
Windows用户注意:Windows没有原生bash,请用下面方式二或方式三。如果你装了WSL2,可以在WSL2里执行上面的命令。
方式二:Docker Compose手动安装(适合想自定义配置的人)
Mac / Linux:
# 下载配置文件
curl -O https://raw.githubusercontent.com/mnfst/manifest/main/docker/docker-compose.yml
curl -O https://raw.githubusercontent.com/mnfst/manifest/main/docker/.env.example
cp .env.example .env
# 生成认证密钥
openssl rand -hex 32
# 把输出的那串字符复制下来,打开.env文件,找到BETTER_AUTH_SECRET,把密钥粘贴进去
# 启动
docker compose up -dWindows(PowerShell):
# 下载配置文件
Invoke-WebRequest -Uri "https://raw.githubusercontent.com/mnfst/manifest/main/docker/docker-compose.yml" -OutFile "docker-compose.yml"
Invoke-WebRequest -Uri "https://raw.githubusercontent.com/mnfst/manifest/main/docker/.env.example" -OutFile ".env.example"
Copy-Item .env.example .env
# 生成密钥(需要安装OpenSSL或使用Git Bash执行)
# 如果没有openssl命令,可以用在线工具生成一个64位的hex字符串
# 或者安装Git for Windows后在Git Bash中执行:openssl rand -hex 32
# 用记事本打开.env,把BETTER_AUTH_SECRET改成你生成的密钥
notepad .env
# 启动
docker compose up -d方式三:Docker Run单命令启动(自带PostgreSQL,适合快速体验)
Mac / Linux:
docker run -d -p 3001:3001 -e DATABASE_URL=postgresql://user:pass@host:5432/manifest -e BETTER_AUTH_SECRET=$(openssl rand -hex 32) -e BETTER_AUTH_URL=http://localhost:3001 manifestdotbuild/manifestWindows(PowerShell):
# 先手动生成一个密钥,替换下面YOUR_SECRET_HERE
docker run -d -p 3001:3001 -e "DATABASE_URL=postgresql://user:pass@host:5432/manifest" -e "BETTER_AUTH_SECRET=YOUR_SECRET_HERE" -e "BETTER_AUTH_URL=http://localhost:3001" manifestdotbuild/manifest安装后初始化
- 浏览器打开 http://localhost:3001
- 注册账号——第一个注册的账号自动成为管理员
- 登录后在设置页面添加你的API Key或订阅凭证
- 在"Models"页面配置你想使用的模型
- 把你的Agent的API地址改成
http://localhost:3001/v1,就大功告成了
使用方法:从入门到进阶
基础用法:替换你的Agent的API地址
这是最简单的用法。不管你用的是Claude Code、OpenClaw、Hermes还是其他什么Agent,只要它支持自定义API Endpoint(兼容OpenAI格式),就只需要把原来的API地址换成Manifest的地址:
# 原来
API Base: https://api.openai.com/v1
# 改成
API Base: http://localhost:3001/v1API Key填你在Manifest后台配置的key。就这样,你的所有请求都会经过Manifest的智能路由。
进阶用法一:复用已有订阅
这是Manifest最香的功能之一。你已经有ChatGPT Plus(每月20美元)、Claude Pro(每月20美元)、GLM Coding Plan这些订阅了,但用API还得另外按量付费?Manifest可以直接利用这些订阅:
- 在Manifest后台选择"添加供应商"
- 选择对应供应商(如OpenAI),勾选"使用订阅"
- 登录你的订阅账号授权
- 完成后,你的Agent调用GPT-4o时会走你的ChatGPT Plus订阅额度,而不是从API按量扣费
这意味着:如果你已经有几份订阅,加上Manifest后,API额外支出可以降到接近零。
进阶用法二:设置预算上限
不想费用失控?在Manifest后台的"Budget"页面:
- 设置每日花费上限,比如5美元
- 设置每月花费上限,比如100美元
- 达到上限后,Manifest会自动将请求降级到免费/本地模型(如Ollama上的本地模型)或直接拒绝
这样你永远不会收到意外的天价账单。
进阶用法三:查看评分透明度
每次请求路由完成后,你可以在Manifest后台的"Logs"页面看到:
- 请求的23维度评分详情
- 最终难度等级(simple/standard/complex/reasoning)
- 选择了哪个模型
- 为什么选择这个模型(价格、能力匹配度等)
- 实际花费
这个透明度是OpenRouter等平台给不了的——你知道每一分钱花在哪里。
实际场景举例
| 场景 | 请求示例 | Manifest怎么路由 | 大约省多少 |
|---|---|---|---|
| 日常闲聊 | "帮我写一封请假邮件" | 评为simple → 路由到GPT-4o-mini或DeepSeek Chat | 省约80% |
| 代码补全 | "补全这个函数的返回值" | 评为standard → 路由到Claude Sonnet或GPT-4o | 省约50% |
| 复杂编程 | "重构这个模块,要求支持并发" | 评为complex → 路由到Claude Sonnet 4或GPT-4o | 省约20% |
| 深度推理 | "分析这两篇论文的方法论差异" | 评为reasoning → 路由到Claude Opus 4或o3 | 不省,但该花就花 |
| 模型挂了 | Claude Opus 4服务中断 | 自动回退 → 切到GPT-4o或Gemini 2.5 Pro | 不省,但不断服务 |
| 预算触顶 | 今天已经花了5美元 | 降级 → 路由到本地Ollama模型 | 省100%(零额外支出) |
Manifest vs OpenRouter:为什么选Manifest?
| 对比项 | Manifest | OpenRouter |
|---|---|---|
| 定位 | 个人AI Agent | 企业级API流量 |
| 架构 | 本地部署,请求直发供应商 | 云代理,所有流量经过第三方服务器 |
| 费用 | 完全免费(MIT开源) | 每次API调用收5%手续费 |
| 开源 | ✅ MIT协议,代码公开 | ❌ 不开源 |
| 数据隐私 | 本地部署完全不出门,云端版也只留元数据 | 提示和响应都经过第三方服务器 |
| 透明度 | 开放23维评分,能看到为什么选某模型 | 不透明,黑箱路由 |
| 自定义供应商 | 支持任意OpenAI兼容供应商 | 仅支持已接入的供应商 |
| 订阅利用 | 可复用ChatGPT Plus/Claude Pro等已有订阅 | 按量计费,不能用订阅 |
| 回退机制 | 自动回退到下一个可用模型 | 有限支持 |
| 部署方式 | Docker本地部署 | 云端服务 |
简单总结:OpenRouter是给企业做API聚合的,Manifest是给个人AI Agent省钱保隐私的。 如果你是个人开发者,同时用好几个AI Agent,Manifest更合适——不用交5%过路费,数据不经过第三方,还能用已有订阅。
支持的供应商一览
Manifest目前支持以下供应商(持续增加中):
API Key接入:
- OpenAI — ✅ 可复用ChatGPT Plus/Pro/Team订阅
- Anthropic — ✅ 可复用Claude Max/Pro订阅
- Google Gemini
- DeepSeek
- xAI(Grok系列)
- Mistral AI
- 通义千问/Qwen(阿里)
- MiniMax — ✅ 可复用MiniMax Coding Plan
- Kimi/Moonshot
- 智谱/Z.ai — ✅ 可复用GLM Coding Plan
- GitHub Copilot — ✅ 可复用Copilot订阅
- OpenRouter
- Ollama — ✅ 本地模型 + 云端模型
自定义供应商: 支持任何兼容OpenAI API格式的供应商,填个地址和Key就行。
小结
Manifest就是一个给个人AI Agent用的"智能省钱中间人":自动判断问题难度,简单问题用便宜模型,复杂问题用贵模型,模型挂了自动切,还能复用你已有的订阅,本地部署数据不出门。5400星、MIT开源、Docker一键部署、支持300+模型——如果你同时用好几个AI Agent,装上它就是白捡70%的费用节省。
项目地址: https://github.com/mnfst/manifest
官网: https://manifest.build
读者评论
0 条暂无评论,来分享你的看法吧
相关推荐
结合当前内容、你的浏览习惯和搜索偏好推荐。
OpenHands:71K星的AI编程Agent平台,5种用法从CLI到云端全搞定
OpenHands:71K星的AI编程Agent平台,5种用法从CLI到云端全搞定 你是不是也这样? 每天写代码,一半时间在查报错、补测试、改Bug,真正写业务逻辑的时间少得可怜。招了个AI助手吧,聊聊天还行,让它帮你跑个命令、改个文件,它只会说"建议你这样做"——说的比做的多。要是有

