ワイドリサーチ:文脈ウィンドウを超えて
木曜日, 10月 30
製品
AI駆動型研究の約束は常に魅力的でした:情報収集と統合の退屈な作業をインテリジェントシステムに委託し、より高次の分析と意思決定のために人間の認知力を解放することです。しかし、これらのシステムを些細ではないユースケースで使用したことがある人なら誰でも、イライラする現実に直面しています:複数の主題を含む研究タスクの8番目か9番目の項目になると、AIは捏造し始めます。
単に簡略化するのではなく。単により簡潔に要約するのでもなく。捏造します。
これはプロンプトエンジニアリングの問題ではありません。モデル能力の問題でもありません。これは、AI研究ツールの有用性をその誕生以来静かに制限してきた構造的な制約です。そしてそれは、Wide Researchが克服するために設計された制約です。
コンテキストウィンドウ:根本的なボトルネック
すべての大規模言語モデルはコンテキストウィンドウ内で動作しています。これは、モデルがいつでも積極的に処理できる情報量を制限する有限のメモリバッファです。現代のモデルはこの境界を印象的に押し広げてきました:最近のバージョンでは4Kトークンから32K、128K、さらには1Mトークンまで。
しかし問題は依然として存在します。
AIに複数のエンティティ—例えば、50社の企業、30本の研究論文、または20の競合製品—を調査するよう依頼すると、コンテキストウィンドウはすぐに満杯になります。それは各エンティティに関する生の情報だけでなく、以下も含まれます:
•元のタスク仕様と要件
•一貫した出力フォーマットのための構造テンプレート
•各項目の中間的な推論と分析
•相互参照と比較メモ
•すべての先行項目の累積コンテキスト
モデルが8番目か9番目の項目に達するころには、コンテキストウィンドウは大きな負担を抱えています。モデルは不可能な選択に直面します:明示的に失敗するか、妥協するかです。 常に後者を選択します。
捏造の閾値
実際には次のようなことが起こります:
アイテム1-5: モデルは本物の調査を実行します。情報を取得し、ソースを相互参照し、詳細で正確な分析を生成します。
アイテム6-8: 品質が微妙に低下し始めます。説明がやや一般的になります。モデルは新鮮な調査よりも以前のパターンに頼るようになります。
アイテム9以降: モデルは捏造モードに入ります。あふれるコンテキストを管理しながら徹底的な調査の認知負荷を維持できなくなり、実際の調査ではなく、もっともらしく聞こえる内容を統計的パターンに基づいて生成し始めます。
これらの捏造は洗練されています。権威のある響きがします。確立されたフォーマットに完璧に従います。多くの場合、文法的に完璧で、以前の正当なエントリーとスタイル的に一貫しています。
しかし、それらは頻繁に間違っています。 競合分析は、それらを提供していない企業に機能を帰属させることがあります。文献レビューは、捏造された発見を含む論文を引用することがあります。製品比較は、価格帯や仕様を作り出すことがあります。
厄介な点は、これらの捏造は手動での検証なしには検出が難しいということです—それは自動化された調査の目的全体を台無しにします。
なぜより大きなコンテキストウィンドウがこれを修正できないのか
直感的な対応は、単にコンテキストウィンドウを拡大することです。32Kトークンが十分でなければ、128Kを使用します。それが十分でなければ、200K以上に押し上げます。
このアプローチは問題を誤解しています。
まず、コンテキストの減衰は二元的ではありません。 モデルはそのコンテキストウィンドウ全体にわたって完璧な記憶を維持するわけではありません。研究によると、検索精度は現在の位置からの距離とともに低下することが示されています—「中間で迷子になる」現象です。コンテキストの最初と最後の情報は、中間の情報よりも確実に想起されます。 第二に、処理コストが不均衡に増加します。 400Kトークンのコンテキストを処理するコストは、200Kのコストの単なる2倍ではなく、時間と計算リソースの両方で指数関数的に増加します。これにより、多くのユースケースでは大規模コンテキスト処理が経済的に実用的でなくなります。
第三に、問題は認知負荷です。 無限のコンテキストがあったとしても、単一のモデルに何十もの独立した研究タスクにわたって一貫した品質を維持するよう求めることは、認知的なボトルネックを生み出します。モデルは項目間で常にコンテキストを切り替え、比較の枠組みを維持し、文体の一貫性を確保しながら、中核的な研究タスクを実行しなければなりません。 第四、文脈の長さに関する圧力。 モデルの「忍耐力」は、ある程度、トレーニングデータの長さ分布によって決定されます。しかし、現在の言語モデルのトレーニング後のデータ混合は、依然としてチャットボットスタイルのやり取りのために設計された比較的短いトラジェクトリが主流です。その結果、アシスタントメッセージの内容の長さが一定のしきい値を超えると、モデルは自然に一種の文脈長の圧力を感じ、要約を急いだり、箇条書きなどの不完全な表現形式に頼ったりする傾向があります。
文脈ウィンドウは確かに制約です。しかし、それはより深い構造的限界の症状です:単一プロセッサ、シーケンシャルなパラダイム。
構造的シフト:並列処理
ワイドリサーチのアーキテクチャ
ワイドリサーチは、AIシステムが大規模な研究タスクにどのようにアプローチすべきかについての根本的な再考を表しています。1つのプロセッサにn個のアイテムを順次処理させるのではなく、n個の並列サブエージェントを配置してn個のアイテムを同時に処理します。

ワイドリサーチのアーキテクチャ
ワイドリサーチタスクを開始すると、システムは次のように動作します:
1. インテリジェントな分解
メインコントローラーはあなたのリクエストを分析し、独立した並列化可能なサブタスクに分解します。これにはタスク構造の理解、依存関係の特定、一貫性のあるサブ仕様の作成が含まれます。
2. サブエージェントへの委任
各サブタスクに対して、システムは専用のサブエージェントを起動します。重要なことに、これらは軽量プロセスではなく、それぞれが以下を備えた完全な機能を持つManusインスタンスです:
•完全な仮想マシン環境
並列実行
すべてのサブエージェントは同時に実行されます。各サブエージェントは割り当てられた項目に排他的に集中し、単一項目のタスクと同じ深さの調査と分析を行います。
中央集権型コーディネーション
メインコントローラーは監視を維持し、サブエージェントが仕事を完了すると結果を収集します。重要なことに、サブエージェント同士は通信せず、すべての調整はメインコントローラーを通じて行われます。これにより、コンテキストの汚染を防ぎ、独立性を維持します。
統合と集約
すべてのサブエージェントが報告を終えると、メインコントローラーは結果を単一の、一貫性のある包括的なレポートに統合します。この統合ステップでは、メインコントローラーのコンテキスト容量を最大限に活用します。なぜなら、元の調査作業の負担がないからです。
なぜこれがすべてを変えるのか
スケールでの一貫した品質
すべてのアイテムが同じ扱いを受けます。50番目のアイテムも最初のアイテムと同じくらい徹底的に調査されます。劣化曲線もなく、捏造の閾値もなく、品質の崖もありません。
真の水平スケーラビリティ
10アイテムを分析する必要がありますか?システムは10のサブエージェントをデプロイします。500を分析する必要がありますか?500をデプロイします。アーキテクチャはタスクのサイズに比例してリニアにスケールし、コンテキストベースのアプローチのように指数関数的ではありません。
大幅な高速化
サブエージェントは並行して動作するため、50アイテムを分析するのに必要な実時間は、5つを分析する時間とほぼ同じです。ボトルネックは逐次処理時間から合成時間へとシフトします—これはタスク全体のより小さな部分です。
幻覚率の低減
サブエージェントの認知的快適ゾーン内での操作
各サブエージェントは、新鮮なコンテキストと単一の集中したタスクを持ち、情報を捏造する圧力がありません。サブエージェントは真の調査を行い、事実を検証し、正確さを維持することができます。
独立性と信頼性
サブエージェント間でコンテキストが共有されていないため、一つのサブエージェントの仕事におけるエラーや幻覚は他に伝播しません。各分析は独立して成り立ち、システミックリスクを軽減します。
研究を超えて:汎用並列処理エンジン
「ワイドリサーチ」と呼んでいますが、このアーキテクチャの応用は従来の研究タスクをはるかに超えています。
大量文書処理
OCR、抽出、分析を必要とする何千ものPDFを処理します。各文書には専用のサブエージェントと完全な処理機能が割り当てられます。
マルチアセットクリエイティブ生成
数百の独自画像、動画、または音声アセットの生成。各アセットは、コンテキストの制約なしに創造的空間を十分に探索できる専用のサブエージェントによって作成されます。
大規模データ分析
複数のデータセットを同時に分析し、それぞれが異なる処理パイプラインと分析アプローチを必要とします。
複雑なワークフロー分解
複雑な多段階プロセスを並列化可能なコンポーネントに分解し、それらを同時に実行して結果を統合します。
このパターンは普遍的です:独立したサブタスクに分解できるあらゆるタスクは、この並列実行モデルから恩恵を受けることができます。
エージェント通信と調整
ワイドリサーチの効果は、新しいボトルネックを作成せずにサブエージェントがどのように調整されるかにかかっています。
ハブアンドスポーク通信
サブエージェントは主コントローラーとのみ通信し、互いには通信しません。このハブアンドスポークトポロジーは以下を防ぎます:
•コンテキスト汚染: 1つのサブエージェントの仮定やエラーが別のサブエージェントの作業に影響を与えること。
•調整オーバーヘッド: ピアツーピア調整の通信複雑性の幾何学的増加。
•同期問題: 分散システムにおけるレース条件と一貫性の問題。
ステートレスサブエージェント
各サブエージェントはステートレスかつ一時的です。タスク仕様を受け取り、実行し、結果を返し、終了します。この設計により以下が確保されます:
•明確な分離: サブタスク間に隠れた依存関係がない。
•障害耐性: 失敗したサブエージェントは他に影響を与えることなく再起動できる。
•リソース効率: サブエージェントはオンデマンドで作成され、完了後すぐに解放される。
動的スケーリング
システムはサブエージェントの固定プールを事前に割り当てません。以下に基づいて動的にスケールします:
•タスクの複雑さ: より複雑なサブタスクには追加リソースが割り当てられる場合がある。
•システム負荷: サブエージェントは全体的なスループットを最適化するようにスケジュールされています。
•コスト制約: システムは指定されたリソース予算内で動作することができます。
専門的な仕事への実用的な影響
研究や分析のためにAIに依存する専門家にとって、Wide Researchは可能性を根本的に変えます。
市場情報
一貫した深さで数十から数百の競合他社、市場セグメント、または顧客コホートを分析できます。もう後半のエントリーを手動で検証する必要はありません。AIがその機能比較を作り上げたかどうか疑問に思う必要もありません。
学術研究
数百の論文をレビューし、膨大な文献から知見を統合します。各論文は、数が増えるにつれて劣化する表面的なスキムではなく、徹底的な分析を受けます。
デューデリジェンス
複数の企業、製品、または機会を並行して調査します。重要な決断には一貫した分析が必要です—最初の数項目の後に劣化する研究ではありません。
コンテンツ作成
シングルプロセッサーパラダイムを超えて
ワイドリサーチは単なる機能ではなく、シングルプロセッサーパラダイムから調整された並列アーキテクチャへの根本的な転換を表しています。AIシステムの未来は、より大きなコンテキストウィンドウではなく、インテリジェントなタスク分解と並列実行にあります。
私たちは「AIアシスタント」の時代から「AI労働力」の時代へと移行しています。
ワイドリサーチを使用する時: 一貫した分析を必要とする複数の類似アイテムを含むタスク(競合調査、文献レビュー、一括処理、複数アセットの生成など)。
使用しない時: 各ステップが前の結果に大きく依存する深く順序的なタスク、または単一プロセッサーでの処理がより費用対効果の高い小さなタスク(10項目未満)。
Wide Researchは全ての購読者向け
単一のAIアシスタントから調整されたサブエージェントの連携チームへの建築的飛躍が、すべての購読者に利用可能になりました。これはAI駆動の研究と分析における新しいパラダイムです。
その違いを直接体験することをお勧めします。大規模な研究課題—AIには不可能だと思われていたもの—を持ち寄り、並列処理アプローチがどのように一貫した高品質の結果を規模を問わず提供するかをご覧ください。
AIワークフォースの時代が到来しました。今日からWide Researchタスクを始めましょう。
Less structure,
more intelligence.
© 2025 Manus AI · Singapore.