返回广场

DeerFlow 2.0:字节跳动开源SuperAgent框架,从深度研究到万能执行的进化

你是不是也遇到过这种情况? 老板说"帮我整理一下这周行业竞品的动态,做个PPT";同事问"这篇英文论文能帮我看看核心观点吗,顺便出个摘要";产品经理丢来一个需求文档"你用这个写个技术方案再生成个演示网页吧"……每次遇到这种需要多步骤、跨工具、又查又写还得综合输出的活,你是不是得在浏览器、文档

你是不是也遇到过这种情况?

老板说"帮我整理一下这周行业竞品的动态,做个PPT";同事问"这篇英文论文能帮我看看核心观点吗,顺便出个摘要";产品经理丢来一个需求文档"你用这个写个技术方案再生成个演示网页吧"……每次遇到这种需要多步骤、跨工具、又查又写还得综合输出的活,你是不是得在浏览器、文档、聊天工具之间反复横跳,搞完一整天就过去了?

更惨的是,你用某个AI工具写了一半,换个话题再聊,它完全不记得你之前喜欢什么风格、用什么技术栈,每次都得从头"教育"。要是有一个AI助手,能自己拆任务、并行干活、记住你的偏好,还能写代码、出PPT、做网页一条龙搞定呢?

DeerFlow 2.0 是什么?

DeerFlow(Deep Exploration and Efficient Research Flow)是字节跳动开源的 Super Agent 框架,2026年2月28日发布2.0版本后直接登顶GitHub Trending第1名。它从一个专注于 Deep Research 的框架,进化成了一个能"干几乎任何事"的 SuperAgent——2.0是一次彻底重写,架构、能力、体验都焕然一新。简单说:你提需求,它自己拆子任务、并行执行、综合输出,还帮你做PPT、写代码、生成网页、记住你的偏好。

核心功能一览

功能一句话解释
Skills & Tools 技能模块化内置研究、报告、PPT、网页、图片生成等技能,按需渐进加载,还可自定义扩展
Sub-Agents 子Agent动态创建主Agent按需生成子Agent,子Agent并行执行然后汇总结果,多任务同时跑
Sandbox & File System 沙箱与文件系统每个任务独立执行环境,完整文件系统支持读写文件、查看图片、安全执行shell命令
Context Engineering 上下文工程子Agent上下文隔离,已完成子任务智能摘要压缩,不浪费token
长期记忆 Long-term Memory跨会话记住你的偏好、写作风格、技术栈,越用越懂你
MCP Server 支持通过配置MCP Server扩展能力边界,支持OAuth认证
IM即时通讯渠道支持Telegram、Slack、飞书/Lark、企业微信智能机器人,无需公网IP
Claude Code 集成claude-to-deerflow skill让Claude Code直接与DeerFlow交互
模型无关支持任何OpenAI兼容API的LLM,推荐豆包Seed-2.0-Code、DeepSeek v3.2、Kimi 2.5
内嵌Python Client可作为Python库直接调用,不用启动HTTP服务

安装部署:手把手教你跑起来

方式一:Docker部署(推荐,最省事)

Docker部署适合想快速体验、或者要在服务器上长期跑的同学。所有依赖打包在镜像里,不用担心环境冲突。

# 1. 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow

# 2. 生成本地配置文件
make config

# 3. 编辑 config.yaml 配置模型(至少配一个)
# 打开文件后找到 models 部分,取消注释并填入你的API配置
# models:
#   - name: gpt-4o
#     display_name: GPT-4o
#     use: langchain_openai:ChatOpenAI
#     model: gpt-4o
#     api_key: $OPENAI_API_KEY

# 4. 配置API Key(编辑.env文件)
# OPENAI_API_KEY=sk-your-key-here

# 5. Docker启动(首次需要拉取sandbox镜像)
make docker-init    # 拉取sandbox镜像,首次执行
make docker-start   # 启动所有服务

启动后访问 http://localhost:2026 即可使用。

Windows用户注意:需要安装 Docker Desktop 并确保 WSL2 已启用。安装完成后在 PowerShell 或 CMD 中执行上述命令即可。Mac用户直接在终端执行。Linux用户确保已安装 Docker 和 docker-compose。

方式二:本地开发(适合二开和深度定制)

适合想看代码、改逻辑、做二次开发的开发者。

# 前提:先完成 config.yaml 和 API key 配置(同上)

# 1. 检查本地依赖是否满足
make check  # 校验 Node.js 22+、pnpm、uv、nginx

# 如果提示缺依赖,按提示安装:
# - Node.js 22+: 从 https://nodejs.org 下载或用 nvm install 22
# - pnpm: npm install -g pnpm
# - uv: curl -LsSf https://astral.sh/uv/install.sh | sh
# - nginx: brew install nginx (Mac) / apt install nginx (Linux)

# 2. 安装项目依赖
make install

# 3. 可选:预拉取sandbox镜像
make setup-sandbox

# 4. 启动开发服务
make dev

# 5. 访问 http://localhost:2026

方式三:一键安装向导(最快上手)

如果你是第一次用,推荐用交互式向导,2分钟完成所有配置:

make setup  # 交互式向导,回答几个问题就配好了
make doctor # 随时验证配置是否正确

用国产大模型的配置

不想用OpenAI?DeerFlow完美支持国产大模型,只需要改 config.yaml 里的模型配置:

DeepSeek V3.2 配置:

models:
  - name: deepseek-v3.2
    display_name: DeepSeek V3.2
    use: langchain_openai:ChatOpenAI
    model: deepseek-v3.2
    api_key: $DEEPSEEK_API_KEY
    base_url: https://api.deepseek.com/v1

Kimi 2.5 配置:

models:
  - name: kimi-2.5
    display_name: Kimi 2.5
    use: langchain_openai:ChatOpenAI
    model: kimi-2.5
    api_key: $KIMI_API_KEY
    base_url: https://api.moonshot.cn/v1

豆包 Seed-2.0-Code 配置:

models:
  - name: doubao-seed-code
    display_name: 豆包Seed-2.0-Code
    use: langchain_openai:ChatOpenAI
    model: doubao-seed-2.0-code
    api_key: $DOUBAO_API_KEY
    base_url: https://ark.cn-beijing.volces.com/api/v3

.env 文件里填上对应的API Key即可:

DEEPSEEK_API_KEY=sk-your-deepseek-key
KIMI_API_KEY=sk-your-kimi-key
DOUBAO_API_KEY=your-doubao-key

飞书/Lark 机器人配置

想在公司内部用飞书机器人接入?很简单:

# config.yaml 中添加
channels:
  feishu:
    enabled: true
    app_id: $FEISHU_APP_ID
    app_secret: $FEISHU_APP_SECRET
# .env 中添加
FEISHU_APP_ID=cli_xxxx
FEISHU_APP_SECRET=your-app-secret

企业微信智能机器人配置

# config.yaml 中添加
channels:
  wecom:
    enabled: true
    bot_id: $WECOM_BOT_ID
    bot_secret: $WECOM_BOT_SECRET
# .env 中添加
WECOM_BOT_ID=your_bot_id
WECOM_BOT_SECRET=your_bot_secret

IM渠道的好处是不需要公网IP,DeerFlow通过长轮询方式接入,内网环境也能用。

服务器资源需求

部署场景起步配置推荐配置
本地体验 / make dev4 vCPU、8 GB内存8 vCPU、16 GB内存
Docker开发 / make docker-start4 vCPU、8 GB内存8 vCPU、16 GB内存
长期运行服务 / make up8 vCPU、16 GB内存16 vCPU、32 GB内存

使用方法:从入门到进阶

1. Web界面:最简单的用法

部署好之后打开 http://localhost:2026,直接在聊天框输入你的需求就行。比如:

  • "帮我分析一下这篇论文的核心观点:[粘贴链接]"
  • "写一份市场调研报告,关于中国新能源汽车2026年Q1的情况"
  • "根据这个数据做个PPT演示文稿"

DeerFlow会自动判断需要用哪些Skills,创建子Agent并行执行,最后综合输出结果。

2. Claude Code集成:开发者的终极形态

如果你日常用Claude Code写代码,可以一行命令把DeerFlow接进来:

npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow

装好之后,在Claude Code里就能:

  • 直接给DeerFlow发送研究任务
  • 选择执行模式(快速/深度)
  • 查看任务状态和结果
  • 管理对话线程
  • 上传文件让DeerFlow分析

这相当于让Claude Code有了一个强大的"后端研究团队",代码编写+深度研究一条龙。

3. Python Client:最灵活的嵌入方式

想把DeerFlow集成到自己的Python项目里?直接当库用,不用起HTTP服务:

from deerflow.client import DeerFlowClient

# 初始化客户端
client = DeerFlowClient()

# 普通调用
response = client.chat("帮我分析这篇论文的核心方法", thread_id="my-thread")

# 流式调用,实时获取结果
for event in client.stream("对比一下React和Vue在2026年的生态差异"):
    if event.type == "messages-tuple" and event.data.get("type") == "ai":
        print(event.data["content"])

这种方式特别适合:

  • 做数据分析工具的后端
  • 嵌入到已有业务系统
  • 自动化流水线中的研究环节
  • 批量处理任务

实际场景举例

场景怎么用 DeerFlow
写周报/竞品分析输入"帮我看本周XX行业竞品动态",自动搜索、整理、生成带图表的报告
论文阅读粘贴论文链接,DeerFlow用research skill做深度阅读,输出结构化摘要
做PPT演示"根据这份市场分析报告做个PPT",slide-creation skill自动生成演示文稿
快速出产品页面"帮我把这个功能描述做成一个展示网页",web-page skill直接生成HTML
生成配图"给我画一张科技感的封面图",image-generation skill出图
长期项目跟踪利用长期记忆,下次聊时它记得你的项目背景和偏好
团队知识库通过飞书/企微机器人,团队成员随时提问,共享一个DeerFlow实例
代码研究结合Claude Code skill,从写代码到查资料到写文档一站式搞定

跟同类项目对比

对比维度DeerFlow 2.0OpenHandsn8nHermes Agent
定位Super Agent框架,万能执行AI软件开发Agent可视化工作流自动化自进化AI助手框架
核心优势子Agent并行+Skills模块化+长期记忆专注代码编写和调试拖拽式流程编排,非编程友好自我学习进化机制
子Agent并行✅ 动态创建,并行执行❌ 主要是串行对话✅ 节点可并行❌ 单Agent为主
沙箱执行✅ 每任务独立文件系统+shell✅ Docker沙箱执行代码❌ 无沙箱⚠️ 有限
长期记忆✅ 跨会话持久记忆❌ 无❌ 无✅ 自进化记忆
IM渠道✅ 飞书/企微/Telegram/Slack❌ 仅Web界面⚠️ 需Webhook
国产模型支持✅ 豆包/DeepSeek/Kimi原生支持⚠️ 可配置但非主线⚠️ 需自建节点⚠️ 可配置
技能扩展✅ 渐进式加载,社区Skills⚠️ 有限✅ 社区节点丰富⚠️ 有限
上手难度低(一键向导)低(拖拽)
协议MIT(完全免费)MIT混合协议MIT

为什么选DeerFlow? 它是目前唯一一个同时做到"子Agent并行+沙箱执行+长期记忆+IM渠道接入+国产模型原生支持"的开源框架。如果你需要一个能记住你、能并行干活、能接入飞书企微、能跑国产模型的超级助手,DeerFlow是目前最全面的选择。

小结

DeerFlow 2.0 从一个专注深度研究的框架,彻底重写进化为真正的 SuperAgent——子Agent并行干活、Skills按需加载、沙箱安全执行、长期记忆越用越懂你,还能接入飞书企微当团队AI助手。无论你是想本地跑一个万能研究助手,还是想在公司内部署一个共享AI大脑,DeerFlow都值得第一时间上手。

🔗 GitHub: https://github.com/bytedance/deer-flow 🔗 官网: https://deerflow.tech 📜 协议: MIT(完全免费商用)


本文由龙岗AI社区编写,关注更多AI开源项目动态,欢迎加入我们的社区交流。

写评论

读者评论

0

暂无评论,来分享你的看法吧

相关推荐

结合当前内容、你的浏览习惯和搜索偏好推荐。