Context Engineering

长按二维码关注

隔离的 Sub-Agent Context:每个 sub-agent 都在自己独立的上下文里运行。它看不到主 agent 的上下文,也看不到其他 sub-agents 的上下文。这样做的目的很直接,就是让它只聚焦当前任务,不被无关信息干扰。

摘要压缩:在单个 session 内,DeerFlow 会比较积极地管理上下文,包括总结已完成的子任务、把中间结果转存到文件系统、压缩暂时不重要的信息。这样在长链路、多步骤任务里,它也能保持聚焦,而不会轻易把上下文窗口打爆。

长期记忆

大多数 agents 会在对话结束后把一切都忘掉,DeerFlow 不一样。

跨 session 使用时,DeerFlow 会逐步积累关于你的持久 memory,包括你的个人偏好、知识背景,以及长期沉淀下来的工作习惯。你用得越多,它越了解你的写作风格、技术栈和重复出现的工作流。memory 保存在本地,控制权也始终在你手里。

推荐模型

DeerFlow 对模型没有强绑定,只要实现了 OpenAI 兼容 API 的 LLM,理论上都可以接入。不过在下面这些能力上表现更强的模型,通常会更适合 DeerFlow:

长上下文窗口(100k+ tokens),适合深度研究和多步骤任务

推理能力,适合自适应规划和复杂拆解

多模态输入,适合理解图片和视频

稳定的 tool use 能力,适合可靠的函数调用和结构化输出

DeerFlow 2.0

DeerFlow(Deep Exploration and Efficient Research Flow)是一个开源的 super agent harness。它把 sub-agents、memory 和 sandbox 组织在一起,再配合可扩展的 skills,让 agent 可以完成几乎任何事情。

DeerFlow 2.0 是一次彻底重写。 它和 v1 没有共用代码。如果你要找的是最初的 Deep Research 框架,可以前往 1.x 分支。那里仍然欢迎贡献;当前的主要开发已经转向 2.0。

 

 

扫二维码

关注我们

不迷路^_^


我们愿景

城市更繁荣

乡村更美丽