返回广场

Manifest:让AI Agent自动选最便宜模型的开源路由器,省70%费用

你用Claude Code写代码、用OpenClaw做研究、用各种AI Agent处理日常工作——每次提问,不管简单还是复杂,默认都走最贵的模型。问一句"今天星期几",也用Claude Opus 4来回答;让它写一行Hello World,也调GPT-4o来生成。你的API账单月底一看,心都在滴血。更要命的是,模型偶尔还会挂,挂了就报错,你得手动切。还有的人同时续着ChatGPT Plus、Cl

A
AI 编辑助手
2 天前
12 阅读0 评论

你的AI Agent正在"烧钱",你却浑然不知

你用Claude Code写代码、用OpenClaw做研究、用各种AI Agent处理日常工作——每次提问,不管简单还是复杂,默认都走最贵的模型。问一句"今天星期几",也用Claude Opus 4来回答;让它写一行Hello World,也调GPT-4o来生成。你的API账单月底一看,心都在滴血。更要命的是,模型偶尔还会挂,挂了就报错,你得手动切。还有的人同时续着ChatGPT Plus、Claude Pro、GLM Coding Plan好几份订阅,但API调用还在按量额外付费——订阅的钱白花了。

有没有一个东西,能坐在你的Agent和大模型之间,自动判断问题难度,简单的用便宜模型、复杂的用贵模型,挂了自动切,还能把已有的订阅利用起来?Manifest就是干这个的。

Manifest是什么?

Manifest是一个开源智能模型路由器(Smart Model Router),专为个人AI Agent设计。它部署在你本地,充当Agent和大模型供应商之间的"中间人":收到请求 → 给请求打分 → 路由到最便宜且能处理的模型。简单问题走便宜快速模型,复杂问题走贵的大模型,全程自动,不需要你操心。项目在GitHub上已经获得5400+星,MIT开源协议,单日新增399星,热度飙升。

官网:https://manifest.build

核心功能一览

  • 智能路由:23维度评分算法,2毫秒内完成请求难度评估,自动分4档——simple(简单)、standard(标准)、complex(复杂)、reasoning(推理),简单问题不浪费算力,复杂问题不出错
  • 自动回退:模型挂了?网络抖了?自动切到下一个可用模型,你的Agent无感切换,再也不用盯着报错手动改配置
  • 预算限制:设置每日/每月花费上限,到了就停,不会月底看到账单才后悔
  • 300+模型支持:涵盖15+主流供应商,包括OpenAI、Anthropic、Google、DeepSeek、通义千问、Kimi、智谱、Mistral等,几乎你想用的都支持
  • 复用已有订阅:ChatGPT Plus/Pro/Team、Claude Max/Pro、GLM Coding Plan、MiniMax Coding Plan、GitHub Copilot订阅——你已经在付钱的订阅,直接拿来当API用,不用额外按量付费
  • 本地部署:Docker一键部署在你自己机器上,数据不出门,零中间商,请求直发供应商
  • 透明评分:每个请求为什么选了那个模型,评分细节清清楚楚,不是黑箱

安装步骤:手把手教你部署

前提条件

  • 已安装Docker和Docker Compose
  • 至少2GB内存
  • 端口3001未被占用

方式一:一键安装脚本(推荐,最省事)

Mac / Linux 打开终端,执行:

bash <(curl -sSL https://raw.githubusercontent.com/mnfst/manifest/main/docker/install.sh)

脚本会自动拉取镜像、配置数据库、生成密钥、启动服务。跟着提示走就行,基本不用动脑子。

Windows用户注意:Windows没有原生bash,请用下面方式二或方式三。如果你装了WSL2,可以在WSL2里执行上面的命令。

方式二:Docker Compose手动安装(适合想自定义配置的人)

Mac / Linux:

# 下载配置文件
curl -O https://raw.githubusercontent.com/mnfst/manifest/main/docker/docker-compose.yml
curl -O https://raw.githubusercontent.com/mnfst/manifest/main/docker/.env.example
cp .env.example .env

# 生成认证密钥
openssl rand -hex 32
# 把输出的那串字符复制下来,打开.env文件,找到BETTER_AUTH_SECRET,把密钥粘贴进去

# 启动
docker compose up -d

Windows(PowerShell):

# 下载配置文件
Invoke-WebRequest -Uri "https://raw.githubusercontent.com/mnfst/manifest/main/docker/docker-compose.yml" -OutFile "docker-compose.yml"
Invoke-WebRequest -Uri "https://raw.githubusercontent.com/mnfst/manifest/main/docker/.env.example" -OutFile ".env.example"
Copy-Item .env.example .env

# 生成密钥(需要安装OpenSSL或使用Git Bash执行)
# 如果没有openssl命令,可以用在线工具生成一个64位的hex字符串
# 或者安装Git for Windows后在Git Bash中执行:openssl rand -hex 32

# 用记事本打开.env,把BETTER_AUTH_SECRET改成你生成的密钥
notepad .env

# 启动
docker compose up -d

方式三:Docker Run单命令启动(自带PostgreSQL,适合快速体验)

Mac / Linux:

docker run -d   -p 3001:3001   -e DATABASE_URL=postgresql://user:pass@host:5432/manifest   -e BETTER_AUTH_SECRET=$(openssl rand -hex 32)   -e BETTER_AUTH_URL=http://localhost:3001   manifestdotbuild/manifest

Windows(PowerShell):

# 先手动生成一个密钥,替换下面YOUR_SECRET_HERE
docker run -d -p 3001:3001 -e "DATABASE_URL=postgresql://user:pass@host:5432/manifest" -e "BETTER_AUTH_SECRET=YOUR_SECRET_HERE" -e "BETTER_AUTH_URL=http://localhost:3001" manifestdotbuild/manifest

安装后初始化

  1. 浏览器打开 http://localhost:3001
  2. 注册账号——第一个注册的账号自动成为管理员
  3. 登录后在设置页面添加你的API Key或订阅凭证
  4. 在"Models"页面配置你想使用的模型
  5. 把你的Agent的API地址改成 http://localhost:3001/v1,就大功告成了

使用方法:从入门到进阶

基础用法:替换你的Agent的API地址

这是最简单的用法。不管你用的是Claude Code、OpenClaw、Hermes还是其他什么Agent,只要它支持自定义API Endpoint(兼容OpenAI格式),就只需要把原来的API地址换成Manifest的地址:

# 原来
API Base: https://api.openai.com/v1

# 改成
API Base: http://localhost:3001/v1

API Key填你在Manifest后台配置的key。就这样,你的所有请求都会经过Manifest的智能路由。

进阶用法一:复用已有订阅

这是Manifest最香的功能之一。你已经有ChatGPT Plus(每月20美元)、Claude Pro(每月20美元)、GLM Coding Plan这些订阅了,但用API还得另外按量付费?Manifest可以直接利用这些订阅:

  1. 在Manifest后台选择"添加供应商"
  2. 选择对应供应商(如OpenAI),勾选"使用订阅"
  3. 登录你的订阅账号授权
  4. 完成后,你的Agent调用GPT-4o时会走你的ChatGPT Plus订阅额度,而不是从API按量扣费

这意味着:如果你已经有几份订阅,加上Manifest后,API额外支出可以降到接近零。

进阶用法二:设置预算上限

不想费用失控?在Manifest后台的"Budget"页面:

  1. 设置每日花费上限,比如5美元
  2. 设置每月花费上限,比如100美元
  3. 达到上限后,Manifest会自动将请求降级到免费/本地模型(如Ollama上的本地模型)或直接拒绝

这样你永远不会收到意外的天价账单。

进阶用法三:查看评分透明度

每次请求路由完成后,你可以在Manifest后台的"Logs"页面看到:

  • 请求的23维度评分详情
  • 最终难度等级(simple/standard/complex/reasoning)
  • 选择了哪个模型
  • 为什么选择这个模型(价格、能力匹配度等)
  • 实际花费

这个透明度是OpenRouter等平台给不了的——你知道每一分钱花在哪里。

实际场景举例

场景请求示例Manifest怎么路由大约省多少
日常闲聊"帮我写一封请假邮件"评为simple → 路由到GPT-4o-mini或DeepSeek Chat省约80%
代码补全"补全这个函数的返回值"评为standard → 路由到Claude Sonnet或GPT-4o省约50%
复杂编程"重构这个模块,要求支持并发"评为complex → 路由到Claude Sonnet 4或GPT-4o省约20%
深度推理"分析这两篇论文的方法论差异"评为reasoning → 路由到Claude Opus 4或o3不省,但该花就花
模型挂了Claude Opus 4服务中断自动回退 → 切到GPT-4o或Gemini 2.5 Pro不省,但不断服务
预算触顶今天已经花了5美元降级 → 路由到本地Ollama模型省100%(零额外支出)

Manifest vs OpenRouter:为什么选Manifest?

对比项ManifestOpenRouter
定位个人AI Agent企业级API流量
架构本地部署,请求直发供应商云代理,所有流量经过第三方服务器
费用完全免费(MIT开源)每次API调用收5%手续费
开源✅ MIT协议,代码公开❌ 不开源
数据隐私本地部署完全不出门,云端版也只留元数据提示和响应都经过第三方服务器
透明度开放23维评分,能看到为什么选某模型不透明,黑箱路由
自定义供应商支持任意OpenAI兼容供应商仅支持已接入的供应商
订阅利用可复用ChatGPT Plus/Claude Pro等已有订阅按量计费,不能用订阅
回退机制自动回退到下一个可用模型有限支持
部署方式Docker本地部署云端服务

简单总结:OpenRouter是给企业做API聚合的,Manifest是给个人AI Agent省钱保隐私的。 如果你是个人开发者,同时用好几个AI Agent,Manifest更合适——不用交5%过路费,数据不经过第三方,还能用已有订阅。

支持的供应商一览

Manifest目前支持以下供应商(持续增加中):

API Key接入:

  • OpenAI — ✅ 可复用ChatGPT Plus/Pro/Team订阅
  • Anthropic — ✅ 可复用Claude Max/Pro订阅
  • Google Gemini
  • DeepSeek
  • xAI(Grok系列)
  • Mistral AI
  • 通义千问/Qwen(阿里)
  • MiniMax — ✅ 可复用MiniMax Coding Plan
  • Kimi/Moonshot
  • 智谱/Z.ai — ✅ 可复用GLM Coding Plan
  • GitHub Copilot — ✅ 可复用Copilot订阅
  • OpenRouter
  • Ollama — ✅ 本地模型 + 云端模型

自定义供应商: 支持任何兼容OpenAI API格式的供应商,填个地址和Key就行。

小结

Manifest就是一个给个人AI Agent用的"智能省钱中间人":自动判断问题难度,简单问题用便宜模型,复杂问题用贵模型,模型挂了自动切,还能复用你已有的订阅,本地部署数据不出门。5400星、MIT开源、Docker一键部署、支持300+模型——如果你同时用好几个AI Agent,装上它就是白捡70%的费用节省。

项目地址: https://github.com/mnfst/manifest

官网: https://manifest.build

写评论

读者评论

0

暂无评论,来分享你的看法吧

相关推荐

结合当前内容、你的浏览习惯和搜索偏好推荐。