マルチエージェント並列深層調査方法論
[!info] TL;DR
複雑な跨領域テーマに対して世界レベルの深層調査を行う際には、階層並列マルチエージェント + EXTEND(REPEAT ではない)が最適なモデルとなる。概観(3 agent)→ サブ領域深掘り(9 agent)→ 跨切断面拡張(複数 agent)を経て、累計約 12-15 agent、約 700 ツール呼び出し、1.2M+ 文字の産出を達成し、ウォール時間はわずか約 1.5 時間である。
核心原則:
- 階層的であってフラットではない:本段階でまず認知座標系(概観)を構築し、本段階で事実層(深掘り)を埋め、本段階でエッジ(地域 / forensics)を拡張する。これによって「局所の細部が全体フレームワークを埋没させる」事態を回避する。
- エージェントは EXTEND であって REPEAT ではない:各 エージェントはを繰り返さないことを明示的に約束する必要がある。prompt で強制する形を取る(「概観 を一切繰り返さず、より深い領域のみを掘り下げる」)。さもなくば重複コンテンツが返されることになる。
- 情報隔離と並列実行:並列エージェントは相互に通信しない構成とする。これによって confirmation bias を低減すると同時にカバレッジを最大化する。
- ディスクへの書き込みと簡潔な返却:各エージェントは完全な産出をディスクに書き込み、300 字以下の要約のみを返却する。これによってメインエージェントのコンテキストウィンドウを保護する。
- 品質ゲート:各エージェントに対して字数 30K 中国語文字以上、引用ソース 35 個以上、実コード / tx hash / SEC 文書引用を強制する。これによって抽象論を防止する。
典型的な階層構造(3 つの調査対象 × 3-5 のサブ領域に基づく):
v3: 3-5 agent(跨切断面 / 地域 / オンチェーンデータ)→ 35-50K 文字 / 切断面
合成層:2 agent(主調査員 + 統合層) → 15-25K 文字
重要な prompt 要素(各エージェント):
- コンテキスト(既存ファイルパスと、繰り返し禁止の明示)
- 出力ファイルパスと字数要件(最低値)
- サブ領域リスト(各々の最低字数)
- 引用タイプリスト(コードパスと行番号、tx hash、SEC 文書、X 投稿、podcast URL 等)
- 作業方法(WebSearch の最低回数、Bash による repos/ 上でのコード調査)
- 返却内容の制限(300 字以下)
避けるべき落とし穴:
- ❌ 全コンテンツを単一エージェントに詰め込む(深さは長さに非ず、品質崩壊を招く)
- ❌ エージェントに EXTEND を要求しない(デフォルトでは 概観コンテンツを繰り返す)
- ❌ 返却字数を制限しない(メインエージェントのコンテキストウィンドウが爆発する)
- ❌ 実引用を要求しない(エージェントによる捏造の可能性が残る)
- ❌ 階層化しない(同時に 15 エージェントを起動し、概観座標系を欠くとフォーカスを失う)
コスト見積もり(Opus 4.7):
- 各エージェントごとに、入力約 600K tokens + 出力約 100K tokens = $30-50
- 12 agents = 完全調査あたり $360-600
- 人間の専門家との比較:同等深度で $5000-15000
- 比率:約 1/20 ~ 1/40
典型的な応用シーン:
- 商業デューデリジェンス(DD)
- 投資対象研究(企業 / 業界 / 地域)
- 規制と立法のトラッキング(マルチ jurisdiction 並列)
- 競合分析(複数社 / 複数次元並列)
- 学術文献レビュー(複数テーマ / 多言語並列)
評価:調査効率 9/10、深度 8.5/10、統合調整 8/10(メインエージェントによる master README および跨切断面統合の人手合成は依然として必要)
出典: projects/blockchain-research-2026-05/CROSS-STRATEGIC-SYNTHESIS.md(メタ方法論の振り返り)
Related
- Wiki Index
- 翰林院ディベート workflow
- 5 層意図分解
- 反復的事実修訂アーカイブ