DeerFlow 2.0:字节跳动开源SuperAgent框架,从深度研究到万能执行的进化
你是不是也遇到过这种情况? 老板说"帮我整理一下这周行业竞品的动态,做个PPT";同事问"这篇英文论文能帮我看看核心观点吗,顺便出个摘要";产品经理丢来一个需求文档"你用这个写个技术方案再生成个演示网页吧"……每次遇到这种需要多步骤、跨工具、又查又写还得综合输出的活,你是不是得在浏览器、文档
你是不是也遇到过这种情况?
老板说"帮我整理一下这周行业竞品的动态,做个PPT";同事问"这篇英文论文能帮我看看核心观点吗,顺便出个摘要";产品经理丢来一个需求文档"你用这个写个技术方案再生成个演示网页吧"……每次遇到这种需要多步骤、跨工具、又查又写还得综合输出的活,你是不是得在浏览器、文档、聊天工具之间反复横跳,搞完一整天就过去了?
更惨的是,你用某个AI工具写了一半,换个话题再聊,它完全不记得你之前喜欢什么风格、用什么技术栈,每次都得从头"教育"。要是有一个AI助手,能自己拆任务、并行干活、记住你的偏好,还能写代码、出PPT、做网页一条龙搞定呢?
DeerFlow 2.0 是什么?
DeerFlow(Deep Exploration and Efficient Research Flow)是字节跳动开源的 Super Agent 框架,2026年2月28日发布2.0版本后直接登顶GitHub Trending第1名。它从一个专注于 Deep Research 的框架,进化成了一个能"干几乎任何事"的 SuperAgent——2.0是一次彻底重写,架构、能力、体验都焕然一新。简单说:你提需求,它自己拆子任务、并行执行、综合输出,还帮你做PPT、写代码、生成网页、记住你的偏好。
核心功能一览
| 功能 | 一句话解释 |
|---|---|
| Skills & Tools 技能模块化 | 内置研究、报告、PPT、网页、图片生成等技能,按需渐进加载,还可自定义扩展 |
| Sub-Agents 子Agent动态创建 | 主Agent按需生成子Agent,子Agent并行执行然后汇总结果,多任务同时跑 |
| Sandbox & File System 沙箱与文件系统 | 每个任务独立执行环境,完整文件系统支持读写文件、查看图片、安全执行shell命令 |
| Context Engineering 上下文工程 | 子Agent上下文隔离,已完成子任务智能摘要压缩,不浪费token |
| 长期记忆 Long-term Memory | 跨会话记住你的偏好、写作风格、技术栈,越用越懂你 |
| MCP Server 支持 | 通过配置MCP Server扩展能力边界,支持OAuth认证 |
| IM即时通讯渠道 | 支持Telegram、Slack、飞书/Lark、企业微信智能机器人,无需公网IP |
| Claude Code 集成 | claude-to-deerflow skill让Claude Code直接与DeerFlow交互 |
| 模型无关 | 支持任何OpenAI兼容API的LLM,推荐豆包Seed-2.0-Code、DeepSeek v3.2、Kimi 2.5 |
| 内嵌Python Client | 可作为Python库直接调用,不用启动HTTP服务 |
安装部署:手把手教你跑起来
方式一:Docker部署(推荐,最省事)
Docker部署适合想快速体验、或者要在服务器上长期跑的同学。所有依赖打包在镜像里,不用担心环境冲突。
# 1. 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 2. 生成本地配置文件
make config
# 3. 编辑 config.yaml 配置模型(至少配一个)
# 打开文件后找到 models 部分,取消注释并填入你的API配置
# models:
# - name: gpt-4o
# display_name: GPT-4o
# use: langchain_openai:ChatOpenAI
# model: gpt-4o
# api_key: $OPENAI_API_KEY
# 4. 配置API Key(编辑.env文件)
# OPENAI_API_KEY=sk-your-key-here
# 5. Docker启动(首次需要拉取sandbox镜像)
make docker-init # 拉取sandbox镜像,首次执行
make docker-start # 启动所有服务启动后访问 http://localhost:2026 即可使用。
Windows用户注意:需要安装 Docker Desktop 并确保 WSL2 已启用。安装完成后在 PowerShell 或 CMD 中执行上述命令即可。Mac用户直接在终端执行。Linux用户确保已安装 Docker 和 docker-compose。
方式二:本地开发(适合二开和深度定制)
适合想看代码、改逻辑、做二次开发的开发者。
# 前提:先完成 config.yaml 和 API key 配置(同上)
# 1. 检查本地依赖是否满足
make check # 校验 Node.js 22+、pnpm、uv、nginx
# 如果提示缺依赖,按提示安装:
# - Node.js 22+: 从 https://nodejs.org 下载或用 nvm install 22
# - pnpm: npm install -g pnpm
# - uv: curl -LsSf https://astral.sh/uv/install.sh | sh
# - nginx: brew install nginx (Mac) / apt install nginx (Linux)
# 2. 安装项目依赖
make install
# 3. 可选:预拉取sandbox镜像
make setup-sandbox
# 4. 启动开发服务
make dev
# 5. 访问 http://localhost:2026方式三:一键安装向导(最快上手)
如果你是第一次用,推荐用交互式向导,2分钟完成所有配置:
make setup # 交互式向导,回答几个问题就配好了
make doctor # 随时验证配置是否正确用国产大模型的配置
不想用OpenAI?DeerFlow完美支持国产大模型,只需要改 config.yaml 里的模型配置:
DeepSeek V3.2 配置:
models:
- name: deepseek-v3.2
display_name: DeepSeek V3.2
use: langchain_openai:ChatOpenAI
model: deepseek-v3.2
api_key: $DEEPSEEK_API_KEY
base_url: https://api.deepseek.com/v1Kimi 2.5 配置:
models:
- name: kimi-2.5
display_name: Kimi 2.5
use: langchain_openai:ChatOpenAI
model: kimi-2.5
api_key: $KIMI_API_KEY
base_url: https://api.moonshot.cn/v1豆包 Seed-2.0-Code 配置:
models:
- name: doubao-seed-code
display_name: 豆包Seed-2.0-Code
use: langchain_openai:ChatOpenAI
model: doubao-seed-2.0-code
api_key: $DOUBAO_API_KEY
base_url: https://ark.cn-beijing.volces.com/api/v3在 .env 文件里填上对应的API Key即可:
DEEPSEEK_API_KEY=sk-your-deepseek-key
KIMI_API_KEY=sk-your-kimi-key
DOUBAO_API_KEY=your-doubao-key飞书/Lark 机器人配置
想在公司内部用飞书机器人接入?很简单:
# config.yaml 中添加
channels:
feishu:
enabled: true
app_id: $FEISHU_APP_ID
app_secret: $FEISHU_APP_SECRET# .env 中添加
FEISHU_APP_ID=cli_xxxx
FEISHU_APP_SECRET=your-app-secret企业微信智能机器人配置
# config.yaml 中添加
channels:
wecom:
enabled: true
bot_id: $WECOM_BOT_ID
bot_secret: $WECOM_BOT_SECRET# .env 中添加
WECOM_BOT_ID=your_bot_id
WECOM_BOT_SECRET=your_bot_secretIM渠道的好处是不需要公网IP,DeerFlow通过长轮询方式接入,内网环境也能用。
服务器资源需求
| 部署场景 | 起步配置 | 推荐配置 |
|---|---|---|
| 本地体验 / make dev | 4 vCPU、8 GB内存 | 8 vCPU、16 GB内存 |
| Docker开发 / make docker-start | 4 vCPU、8 GB内存 | 8 vCPU、16 GB内存 |
| 长期运行服务 / make up | 8 vCPU、16 GB内存 | 16 vCPU、32 GB内存 |
使用方法:从入门到进阶
1. Web界面:最简单的用法
部署好之后打开 http://localhost:2026,直接在聊天框输入你的需求就行。比如:
- "帮我分析一下这篇论文的核心观点:[粘贴链接]"
- "写一份市场调研报告,关于中国新能源汽车2026年Q1的情况"
- "根据这个数据做个PPT演示文稿"
DeerFlow会自动判断需要用哪些Skills,创建子Agent并行执行,最后综合输出结果。
2. Claude Code集成:开发者的终极形态
如果你日常用Claude Code写代码,可以一行命令把DeerFlow接进来:
npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow装好之后,在Claude Code里就能:
- 直接给DeerFlow发送研究任务
- 选择执行模式(快速/深度)
- 查看任务状态和结果
- 管理对话线程
- 上传文件让DeerFlow分析
这相当于让Claude Code有了一个强大的"后端研究团队",代码编写+深度研究一条龙。
3. Python Client:最灵活的嵌入方式
想把DeerFlow集成到自己的Python项目里?直接当库用,不用起HTTP服务:
from deerflow.client import DeerFlowClient
# 初始化客户端
client = DeerFlowClient()
# 普通调用
response = client.chat("帮我分析这篇论文的核心方法", thread_id="my-thread")
# 流式调用,实时获取结果
for event in client.stream("对比一下React和Vue在2026年的生态差异"):
if event.type == "messages-tuple" and event.data.get("type") == "ai":
print(event.data["content"])这种方式特别适合:
- 做数据分析工具的后端
- 嵌入到已有业务系统
- 自动化流水线中的研究环节
- 批量处理任务
实际场景举例
| 场景 | 怎么用 DeerFlow |
|---|---|
| 写周报/竞品分析 | 输入"帮我看本周XX行业竞品动态",自动搜索、整理、生成带图表的报告 |
| 论文阅读 | 粘贴论文链接,DeerFlow用research skill做深度阅读,输出结构化摘要 |
| 做PPT演示 | "根据这份市场分析报告做个PPT",slide-creation skill自动生成演示文稿 |
| 快速出产品页面 | "帮我把这个功能描述做成一个展示网页",web-page skill直接生成HTML |
| 生成配图 | "给我画一张科技感的封面图",image-generation skill出图 |
| 长期项目跟踪 | 利用长期记忆,下次聊时它记得你的项目背景和偏好 |
| 团队知识库 | 通过飞书/企微机器人,团队成员随时提问,共享一个DeerFlow实例 |
| 代码研究 | 结合Claude Code skill,从写代码到查资料到写文档一站式搞定 |
跟同类项目对比
| 对比维度 | DeerFlow 2.0 | OpenHands | n8n | Hermes Agent |
|---|---|---|---|---|
| 定位 | Super Agent框架,万能执行 | AI软件开发Agent | 可视化工作流自动化 | 自进化AI助手框架 |
| 核心优势 | 子Agent并行+Skills模块化+长期记忆 | 专注代码编写和调试 | 拖拽式流程编排,非编程友好 | 自我学习进化机制 |
| 子Agent并行 | ✅ 动态创建,并行执行 | ❌ 主要是串行对话 | ✅ 节点可并行 | ❌ 单Agent为主 |
| 沙箱执行 | ✅ 每任务独立文件系统+shell | ✅ Docker沙箱执行代码 | ❌ 无沙箱 | ⚠️ 有限 |
| 长期记忆 | ✅ 跨会话持久记忆 | ❌ 无 | ❌ 无 | ✅ 自进化记忆 |
| IM渠道 | ✅ 飞书/企微/Telegram/Slack | ❌ 仅Web界面 | ⚠️ 需Webhook | ❌ |
| 国产模型支持 | ✅ 豆包/DeepSeek/Kimi原生支持 | ⚠️ 可配置但非主线 | ⚠️ 需自建节点 | ⚠️ 可配置 |
| 技能扩展 | ✅ 渐进式加载,社区Skills | ⚠️ 有限 | ✅ 社区节点丰富 | ⚠️ 有限 |
| 上手难度 | 低(一键向导) | 中 | 低(拖拽) | 中 |
| 协议 | MIT(完全免费) | MIT | 混合协议 | MIT |
为什么选DeerFlow? 它是目前唯一一个同时做到"子Agent并行+沙箱执行+长期记忆+IM渠道接入+国产模型原生支持"的开源框架。如果你需要一个能记住你、能并行干活、能接入飞书企微、能跑国产模型的超级助手,DeerFlow是目前最全面的选择。
小结
DeerFlow 2.0 从一个专注深度研究的框架,彻底重写进化为真正的 SuperAgent——子Agent并行干活、Skills按需加载、沙箱安全执行、长期记忆越用越懂你,还能接入飞书企微当团队AI助手。无论你是想本地跑一个万能研究助手,还是想在公司内部署一个共享AI大脑,DeerFlow都值得第一时间上手。
🔗 GitHub: https://github.com/bytedance/deer-flow 🔗 官网: https://deerflow.tech 📜 协议: MIT(完全免费商用)
本文由龙岗AI社区编写,关注更多AI开源项目动态,欢迎加入我们的社区交流。
读者评论
0 条暂无评论,来分享你的看法吧
相关推荐
结合当前内容、你的浏览习惯和搜索偏好推荐。

