Les applications de grands modèles de langage (LLM) telles que les agents et le raisonnement spécifique à un domaine reposent de plus en plus sur l'adaptation du contexte - modifier les entrées avec des instructions, des stratégies ou des preuves, plutôt que par des mises à jour des poids. Les approches antérieures améliorent l'utilisabilité mais souffrent souvent du biais de brièveté, qui supprime des insights du domaine au profit de résumés concis, et de l'effondrement du contexte, où la réécriture itérative érode les détails au fil du temps. En s'appuyant sur la mémoire adaptative introduite par Dynamic Cheatsheet, nous présentons ACE (Agentic Context Engineering), un cadre qui traite les contextes comme des guides évolutifs accumulant, affinant et organisant les stratégies via un processus modulaire de génération, réflexion et curation. ACE prévient l'effondrement grâce à des mises à jour structurées et incrémentales qui préservent les connaissances détaillées et s'adaptent aux modèles à contexte étendu. Sur des benchmarks d'agents et spécifiques aux domaines, ACE optimise les contextes à la fois hors ligne (exemple : invites système) et en ligne (exemple : mémoire de l'agent), surpassant constamment des références solides : +10,6 % sur les agents et +8,6 % sur la finance, tout en réduisant significativement la latence d'adaptation et le coût de déploiement. Notamment, ACE peut s'adapter efficacement sans supervision étiquetée, en tirant parti du feedback naturel d'exécution. Sur le classement AppWorld, ACE égalise l'agent opérationnel mieux classé en moyenne globale et le dépasse sur la partition test-challenge plus difficile, malgré l'utilisation d'un modèle open-source plus petit. Ces résultats montrent que des contextes complets et évolutifs permettent des systèmes LLM évolutifs, efficients et auto-améliorants avec une faible charge.
Building similarity graph...
Analyzing shared references across papers
Loading...
Qizheng Zhang
Changran Hu
Shubhangi Upasani
Building similarity graph...
Analyzing shared references across papers
Loading...
Zhang et al. (Mon,) ont étudié cette question.
www.synapsesocial.com/papers/68e97a43edb160cc8d84e720 — DOI: https://doi.org/10.48550/arxiv.2510.04618
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: