エージェントや特定領域の推論などの大規模言語モデル(LLM)アプリケーションは、重みの更新ではなく、指示、戦略、証拠によって入力を修正するコンテキスト適応にますます依存しています。従来のアプローチは使いやすさを改善しますが、簡潔な要約のために領域の知見が失われるブレビティバイアスや、反復的な書き換えで詳細が時間とともに失われるコンテキスト崩壊に悩まされることが多いです。Dynamic Cheatsheetで導入された適応型メモリを基盤に、我々はACE(Agentic Context Engineering)を提案します。これは生成・反省・キュレーションのモジュール式プロセスを通じて、戦略を蓄積、洗練、整理する進化するプレイブックとしてコンテキストを扱うフレームワークです。ACEは構造化された段階的更新により、詳細な知識を保持しながら崩壊を防ぎ、長文コンテキストモデルにスケール可能です。エージェント及び特定領域のベンチマークで、ACEはオフライン(例:システムプロンプト)およびオンライン(例:エージェントメモリ)両方のコンテキストを最適化し、強力なベースラインを一貫して上回りました:エージェントで+10.6%、金融分野で+8.6%の向上を示し、適応遅延と展開コストも大幅に削減しました。特筆すべきは、ACEはラベル付き監督なしでも効果的に適応でき、自然な実行フィードバックを活用している点です。AppWorldリーダーボードでは、ACEは総合平均で最高ランクの実運用エージェントと同等の成績を示し、より難易度の高いテストチャレンジセグメントではそれを上回りました。これらの結果は、包括的で進化するコンテキストが、低オーバーヘッドでスケーラブルかつ効率的な自己改善型LLMシステムの実現を可能にすることを示しています。
Building similarity graph...
Analyzing shared references across papers
Loading...
Qizheng Zhang
Changran Hu
Shubhangi Upasani
Building similarity graph...
Analyzing shared references across papers
Loading...
Zhang et al.(Mon,)はこの問題を研究しました。
www.synapsesocial.com/papers/68e97a43edb160cc8d84e720 — DOI: https://doi.org/10.48550/arxiv.2510.04618
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: