大型语言模型(LLM)应用,如代理和特定领域推理,越来越依赖于上下文适应——通过指令、策略或证据修改输入,而非通过权重更新。先前的方法增强了可用性,但常常受到简洁偏差的影响,即为简洁总结而丢失领域见解,以及上下文崩溃,即迭代改写过程中细节逐渐流失。基于Dynamic Cheatsheet引入的自适应记忆,我们提出了ACE(Agentic Context Engineering,能动上下文工程)框架,将上下文视为演进的剧本,通过生成、反思和策展的模块化过程,积累、提炼和组织策略。ACE 通过结构化的增量更新防止崩溃,保留详细知识,并能随着长上下文模型扩展。在代理和特定领域基准测试中,ACE 优化了离线(如系统提示)和在线(如代理记忆)上下文,一贯优于强基线:代理性能提升10.6%,金融任务提升8.6%,同时显著降低了适应延迟和部署成本。特别地,ACE 能在无标注监督的情况下有效适应,利用自然执行反馈。在AppWorld排行榜上,ACE 在总体平均表现上匹配排名第一的生产级代理,并在更具挑战性的测试分割中超越其表现,尽管使用的是更小的开源模型。这些结果表明,全面且演进的上下文能够实现可扩展、高效且自我提升的低开销LLM系统。
Building similarity graph...
Analyzing shared references across papers
Loading...
Qizheng Zhang
Changran Hu
Shubhangi Upasani
Building similarity graph...
Analyzing shared references across papers
Loading...
张等人(周一)研究了该问题。
www.synapsesocial.com/papers/68e97a43edb160cc8d84e720 — DOI: https://doi.org/10.48550/arxiv.2510.04618
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: