多代理并行深度调研方法论
[!info] TL;DR
对复杂跨领域主题进行世界级深度调研时,分层并行多代理 + EXTEND 而非 REPEAT 是最优模式。v1 总览(3 agent)→ v2 子领域深挖(9 agent)→ v3 跨切面扩展(多 agent),累计约 12-15 agent、约 700 工具调用、1.2M+ 字符产出,墙钟时间仅约 1.5 小时。
核心原则:
- 分层而非扁平:v1 阶段先建认知坐标系(总览),v2 阶段填补事实层(深挖),v3 阶段扩展边缘(区域 / forensics),以避免”局部细节淹没整体框架”。
- 代理 EXTEND 而非 REPEAT:每个 v2 代理必须显式承诺不重复 v1 —— 通过 prompt 强制要求(”完全不重复 v1 deep-dive,只往更深处挖掘”),否则将产出重复内容。
- 信息隔离 + 并行:v2 的 9 个代理互不通信 → 减少 confirmation bias 同时最大化覆盖面。
- 写入磁盘 + 简短返回:每个代理写完整产出到磁盘,仅返回 ≤ 300 字总结 → 保护主代理的上下文窗口。
- 质量门:每个代理强制要求字数 ≥ 30K 中文字符、引用源 ≥ 35 个、真实代码 / tx hash / SEC 文件引用 → 防止泛泛而谈。
典型分层结构(基于 3 个调研对象 × 3-5 个子领域):
v1: 3 agent(每个对象 1 个总览) → 30-50K 字符 / 项目
v2: 9 agent(每个对象 3 个子领域深挖) → 25-50K 字符 / 子领域
v3: 3-5 agent(跨切面 / 区域 / 链上数据) → 35-50K 字符 / 切面
合成层:2 agent(主调研员 + 综合层) → 15-25K 字符
关键 prompt 要素(每个代理):
- 上下文(已有 v1 文件路径,明确不重复)
- 输出文件路径 + 字数要求(最低)
- 子领域清单(每个最少 X 字)
- 引用类型清单(代码路径 + 行号、tx hash、SEC 文件、X 帖子、podcast URL 等)
- 工作方式(WebSearch 至少 N 次 / Bash 在 repos/ 查代码)
- 返回内容限制(≤ 300 字)
避免的坑:
- ❌ 把全部内容塞给单个代理(深度 ≠ 长度,质量崩塌)
- ❌ 不要求代理 EXTEND(默认会 repeat v1 内容)
- ❌ 不限制返回字数(主代理上下文窗口爆炸)
- ❌ 不要求真实引用(代理可能编造)
- ❌ 不分层(同时启动 15 个代理,缺乏 v1 坐标系 → 失焦)
成本估算(Opus 4.7):
- 每代理约 600K tokens 输入 + 100K tokens 输出 = $30-50 / 代理
- 12 agents = $360-600 / 完整调研
- 与人类专家相比 $5000-15000 / 同等深度
- 比例:约 1/20 ~ 1/40
典型应用场景:
- 商业尽职调查(DD)
- 投资标的研究(公司 / 行业 / 区域)
- 监管与立法跟踪(多 jurisdiction 并行)
- 竞争对手分析(多家 / 多维度并行)
- 学术文献综述(多主题 / 多语种并行)
评分:调研效率 9/10、深度 8.5/10、综合协调 8/10(仍需主代理人工合成 master README 与跨切面综合内容)
来源: projects/blockchain-research-2026-05/CROSS-STRATEGIC-SYNTHESIS.md(元方法论反思)
Related
- Wiki Index
- 翰林院辩论 workflow
- 5 层意图分解
- 迭代事实修订归档